دسته بندی خودکار ویژگی های فضای داخلی در مراکز خرید

چکیده

 

بیان جامع نقشه های داخلی به طور مستقیم بر جلوه تجسم نقشه و تجربه نقشه خوانی کاربر تأثیر می گذارد. در حال حاضر، فقط نقاط، خطوط و چند ضلعی های نقشه های فضای باز به عنوان اشیاء تعمیم نقشه برداری استفاده می شود. بنابراین، این مطالعه ویژگی‌های منطقه نقشه داخلی را به عنوان اشیاء تعمیم در نظر می‌گیرد و خوشه‌بندی خودکار ویژگی‌های محوطه داخلی مراکز خرید را هدف پژوهش می‌داند. این رویکرد برای ساخت یک مدل خوشه‌بندی رمزگذار-رمزگشا استفاده می‌شود، که در آن رمزگذار از یک شبکه کانولوشن گراف و مدل‌های مختلف آن تشکیل شده است.
نتایج نشان می‌دهد که چارچوب مدل پیشنهادی به طور موثر ویژگی‌های منطقه مناسب برای خوشه‌بندی فضای داخلی مراکز خرید را استخراج می‌کند و کارایی خوشه‌بندی را بهبود می‌بخشد. به طور مشخص، مدل با شبکه کانولوشن گراف رابطه ای به عنوان رمزگذار بهترین عملکرد، پیچیدگی زمانی و دقت نتایج خوشه بندی را با دقت تا 95 درصد نشان داد. این مطالعه هدف پژوهشی تعمیم نقشه‌برداری را به نقشه‌های داخلی گسترش می‌دهد، که امکان خوشه‌بندی خودکار ویژگی‌های منطقه داخلی را فراهم می‌کند، و یک مدل خوشه‌بندی برای صحنه داخلی مهم مراکز خرید پیشنهاد می‌کند. این برای محققان علاقه مند به تعمیم نقشه برداری نقشه های داخلی ارزشمند است.

کلید واژه ها:

نقشه داخلی ; تعمیم نقشه کشی ; خوشه بندی ویژگی های منطقه ; شبکه کانولوشن گراف

1. مقدمه

تحقیق در مورد تعمیم نقشه‌برداری نقشه‌های داخلی می‌تواند بیان چند سطحی اطلاعات داخلی را تسهیل کند و کارایی تجسم نقشه‌های داخلی و خدمات ناوبری داخلی را بهینه کند. برای مراکز خرید، بیان سلسله مراتبی نقشه داخلی و تحقیقات جامع خودکار نه تنها ممکن است روند اطلاعاتی سازی مراکز را ارتقا دهد و سطح مدیریت تصفیه شده را بهبود بخشد، بلکه خدمات انسانی بیشتری را به مشتریان ارائه دهد. در حال حاضر، اهداف پژوهشی تعمیم نقشه‌کشی عمدتاً نقشه‌های فضای باز هستند و نمایش‌های چند مقیاسی صحنه‌های داخلی و تعمیم نقشه‌برداری نقشه‌های داخلی کمتر مورد توجه قرار گرفته‌اند. در مقایسه با فضای بیرونی، فضای داخلی دارای مقیاس کوچکتر، عناصر داخلی فشرده تر، ساختار فضایی پیچیده تر است. و اطلاعات معنایی غنی تر. از آنجایی که بیان نقشه‌های داخلی تنها یک سطح دارد، اگر مقیاس مناسب برای بیان نقشه در فضای باز مستقیماً روی نقشه داخلی اعمال شود، عناصر شلوغ می‌شوند و بیان واضح نخواهد بود. وو و همکاران [1 ] خاطرنشان کرد که تعمیم نقشه‌کشی می‌تواند از مفهوم اولیه خود فراتر رفته و به تدریج به نقشه‌های داخلی، واقعیت مجازی، نقشه‌های منبع جمعی اطلاعات جغرافیایی داوطلبانه، نقشه‌های ربات و انواع دیگر گسترش یابد. Gotlib و Marciniak [ 2 ] پیشنهاد کردند که مشکلاتی که باید در نمایش نقشه های داخلی در نظر گرفته شوند شامل تعمیم نقشه برداری نقشه های داخلی است.
در میان معدود مطالعات در مورد تعمیم نقشه‌برداری نقشه‌های داخلی، جیانگ [ 3 ] استراتژی‌های تجسم چند مقیاسی را برای عناصر نقطه‌ای نقطه‌نظر در نقشه‌های داخلی بررسی کرد. نورمن و نجیرهایم [ 4 ] فناوری سطح از جزئیات [ 5 ] و نظریه تعمیم نقشه‌کشی را برای کشف بیان اطلاعات فضایی داخلی و بهبود تجربه خواندن تصویر کاربران ترکیب کردند. با این حال، آن مطالعه ویژگی‌های ویژگی‌های فضای داخلی به جز اتصال را در نظر نگرفت، و همچنین تعمیم خودکار ویژگی‌های فضای داخلی را بررسی نکرد.
ویژگی های منطقه بیشترین مساحت یک نقشه داخلی را اشغال می کند. بنابراین، تعمیم ویژگی های منطقه به ویژه در تعمیم نقشه برداری یک نقشه داخلی بسیار مهم است. در تحقیقات تعمیم موجود در مورد ویژگی‌های ناحیه، ادغام ویژگی‌های ناحیه اصل اصلی تعمیم ویژگی‌های ناحیه است و گروه‌بندی ویژگی‌های ناحیه مقدمه ادغام است [ 6 ]. گروه بندی مشخص کننده ویژگی هایی است که باید ادغام شوند [ 7 ] که به آن خوشه بندی ویژگی های ناحیه می گویند. اصل اصلی تحقیقات خوشه‌بندی بر اندازه‌گیری شباهت بین ویژگی‌ها و انتخاب الگوریتم خوشه‌بندی متمرکز است.
تحقیقاتی که شباهت ویژگی های فضای داخلی را اندازه گیری می کند به دو جنبه تقسیم می شود: روابط فضایی و ویژگی های ویژگی. روابط فضایی شامل مجاورت فضایی و مجاورت توپولوژیکی است که وجود یال ها نشان دهنده مجاورت گره ها در فضا با یکدیگر و نوع یال ها نشان دهنده مجاورت توپولوژیکی ویژگی های ناحیه است. ویژگی های صفت شامل ویژگی های هندسی و معنایی است. ویژگی های هندسی با سه جهت اندازه، جهت و شکل نشان داده می شود. محیط و مساحت شاخص های رایج برای اندازه گیری اندازه ویژگی های مساحت هستند. جهت گیری طولانی ترین لبه و جهت مستطیل کوچکترین حد، شاخص هایی هستند که معمولاً برای اندازه گیری جهت ویژگی های ناحیه مورد استفاده قرار می گیرند. کوچکترین مستطیل مرزی، دایره مساحت، و فشردگی بر اساس یک رابطه مربعی، شاخص هایی هستند که معمولاً برای اندازه گیری اشکال ویژگی های منطقه استفاده می شوند. ویژگی‌های معنایی ویژگی‌های اصلی ویژگی‌های فضای داخلی هستند که با همتایان خارجی خود متفاوت هستند. از آنجایی که ویژگی‌های زمینی که توسط نقشه‌های داخلی بیان می‌شوند معمولاً عملکرد قوی دارند، ویژگی‌های معنایی در خوشه‌بندی ویژگی‌های منطقه داخلی بسیار مهم هستند. در حال حاضر، مطالعات متعددی در مورد طبقه بندی ویژگی های معنایی ویژگی های داخلی در دانشگاه وجود دارد. دنگ و همکاران [ ویژگی های معنایی در خوشه بندی ویژگی های فضای داخلی بسیار مهم است. در حال حاضر، مطالعات متعددی در مورد طبقه بندی ویژگی های معنایی ویژگی های داخلی در دانشگاه وجود دارد. دنگ و همکاران [ ویژگی های معنایی در خوشه بندی ویژگی های فضای داخلی بسیار مهم است. در حال حاضر، مطالعات متعددی در مورد طبقه بندی ویژگی های معنایی ویژگی های داخلی در دانشگاه وجود دارد. دنگ و همکاران [8 ] بر اساس ویژگی‌های فضای داخلی و بیان اصول سادگی و سلسله مراتب نقشه‌های داخلی، ویژگی‌ها را انتخاب و ساده‌سازی کرد و در نهایت آن‌ها را برای تشکیل پس‌زمینه قاب، ویژگی‌های کلیدی و علاقه تعیین کرد. یینگ و همکاران [ 9 ] از مرکز خرید به عنوان مثال استفاده کرد و فضاهای داخلی را به سه دسته تقسیم کرد: ویژگی‌های اساسی که توسط توالت‌ها و مکان‌های استراحت نشان داده می‌شوند، ویژگی‌های خرید که توسط مغازه‌ها و صندوق‌داران نشان داده می‌شوند، و ویژگی‌های گذرگاه داخلی که با ورودی‌ها، خروجی‌ها و پله‌ها نشان داده می‌شوند. این مطالعه با این روش طبقه بندی موافق است و اتخاذ می کند.
الگوریتم های خوشه بندی متداول شامل پارتیشن [ 10 ]، سلسله مراتبی [ 11 ] و شبکه عصبی [ 12 ، 13 ، 14 است.] الگوریتم های خوشه بندی. الگوریتم خوشه بندی پارتیشن و الگوریتم خوشه بندی سلسله مراتبی نیاز به محاسبه دستی قابل توجهی دارد و نمی تواند خوشه بندی خودکار ویژگی های ناحیه را ارائه دهد. مشارکت انسانی همچنین می‌تواند ذهنیت را به نتایج تحقیقات اضافه کند و ناکارآمدی کار خوشه‌بندی را افزایش دهد. بنابراین، برای نقشه های داخلی با ویژگی های منطقه بسیار، بعید است که این دو روش به یک اثر خوشه بندی خوب دست یابند. این محدودیت‌ها منجر به ظهور الگوریتم خوشه‌بندی شبکه عصبی شد که ویژگی‌های سطح بالا را از طریق یادگیری ویژگی‌های چند سطحی استخراج می‌کند و اثربخشی استخراج مشخصه را بهبود می‌بخشد. استفاده از هوش مصنوعی برای کارهای خوشه‌بندی نیز تا حدودی خوشه‌بندی خودکار را فراهم می‌کند [ 15 ]]. با توجه به پیچیدگی ویژگی فضای داخلی و مشکل خوشه‌بندی، روش‌های خوشه‌بندی شبکه‌های عصبی موجود هنوز جای قابل توجهی برای بهبود دارند. برای مثال، از آنجایی که روش‌های عمومی شبکه عصبی نمی‌توانند داده‌های برداری را پردازش کنند، شبکه‌های کانولوشن گراف (GCNs) [ 16 ، 17 ، 18 ] که داده‌های نمودار را پردازش می‌کنند، توجه محققان را به خود جلب کرده‌اند.
در برخی از مطالعات مربوط به تعمیم کارتوگرافی، Zhang و همکاران. [ 19 ] از GCN ها برای انتخاب خودکار شبکه های جاده ای استفاده کرد. یو و همکاران [ 20 ] از GCN ها برای تسهیل تشخیص شکل و طبقه بندی ویژگی های منطقه ساکن استفاده کردند و لینگ و همکاران. [ 21 ] از GCN برای فعال کردن تشخیص الگوهای ساختمان استفاده کرد. این مطالعه از GCN برای استخراج ویژگی‌های ویژگی‌های منطقه سرپوشیده مرکز خرید برای دستیابی به خوشه‌بندی بعدی استفاده می‌کند.
الگوریتم خوشه‌بندی شبکه عصبی کل فرآیند خوشه‌بندی ویژگی‌های فضای داخلی را به دو مرحله تقسیم می‌کند [ 22 ]. ابتدا، مدل شبکه عصبی برای نشان دادن داده‌های اولیه داخلی با ابعاد بالا به عنوان ویژگی‌های کم‌بعدی که برای تحلیل خوشه‌ای مناسب‌تر هستند، استفاده می‌شود، پس از آن بردارهای ویژگی کم‌بعد از طریق عملیات خوشه‌بندی پردازش می‌شوند. رایج‌ترین مدل‌های مورد استفاده، رمزگذار خودکار [ 23 ، 24 ]، شبکه متخاصم مولد [ 25 ]، رمزگذار خودکار متغیر [ 26 ، 27 ] و مدل‌های شبکه عصبی نمودار [ 28 ] هستند.
در فرآیند خوشه‌بندی مشخصه، انتخاب مدل خوشه‌بندی اغلب به مفهوم خوشه‌بندی بستگی دارد. مفاهیم خوشه بندی کنونی را می توان تقریباً به دو نوع تقسیم کرد. این دو مفهوم خوشه‌بندی با دو روش یادگیری عمیق مطابقت دارند: یادگیری بدون نظارت و نظارت. الگوریتم خوشه‌بندی نظارت شده فرآیند استخراج مشخصه را با کار خوشه‌بندی ترکیب می‌کند و پارامترهای شبکه را با به حداقل رساندن تلفات خوشه‌بندی تنظیم می‌کند، در نتیجه به شبکه عصبی در استخراج نمایش‌های ویژگی‌هایی که برای کار خوشه‌بندی مناسب‌تر هستند کمک می‌کند. به گفته چانگ و همکاران، برای ترکیب مدل یادگیری نظارت شده و مشکل خوشه‌بندی ویژگی‌های فضای داخلی، این مطالعه مشکل چند طبقه‌بندی گره‌ها را به یک مشکل طبقه‌بندی دودویی لبه‌ها تبدیل کرد. [29 ]، با الهام از شبکه سیامی. گره هایی که شباهت بالایی دارند پیوند دارند و می توانند در یک دسته گروه بندی شوند. برعکس، گره هایی با شباهت کم هیچ پیوندی ندارند و به یک دسته تعلق ندارند. یک شبکه سیامی معمولاً از دو شبکه عصبی تشکیل شده است که وزن مشترک دارند. از ساختار شبکه می توان برای پیش بینی شباهت بین جفت نمونه استفاده کرد و سپس تفاوت بین شباهت محاسبه شده و برچسب به عنوان تابع ضرر تعریف می شود. فرآیند به حداقل رساندن مقدار تابع ضرر، فرآیند آموزش مدل است. چانگ و همکاران [ 29] از مدل شبکه سیامی برای پیش‌بینی شباهت بین جفت‌های نمونه ورودی استفاده کرد و سپس جفت‌های نمونه را بر اساس رتبه‌بندی شباهت برچسب‌گذاری کرد. مقدار برچسب 0 یا 1 است که 0 نشان دهنده شباهت کم و 1 نشان دهنده شباهت زیاد است. ماهیت این تحقیق تولید مداوم جفت‌های نمونه مثبت و منفی با اعتماد بالا بر اساس مفهوم خودآموزی و استفاده از آنها به عنوان اطلاعات نظارت شده برای هدایت آموزش مدل است [ 30 ].
حریم خصوصی فضای داخلی باعث ایجاد محدودیت در توسعه نقشه های داخلی برای بسیاری از ساختمان ها شده است و مراکز خرید به دلیل مساحت بزرگ، ساختار پیچیده و باز بودن به پرکاربردترین صحنه تبدیل شده اند. این مطالعه، خوشه‌بندی خودکار ویژگی‌های فضای داخلی مراکز خرید را به عنوان هدف تحقیق در نظر می‌گیرد، یک مدل رمزگذار-رمزگشا بر اساس GCN ساخته می‌شود، و کاربرد مدل‌های مختلف GCN را با تحقیق در مورد خوشه‌بندی خودکار ویژگی‌های منطقه داخلی مقایسه و تجزیه و تحلیل می‌کند. مناسب ترین روش برای خوشه بندی خودکار ویژگی های فضای داخلی.
خلاصه ای از اهداف و مشارکت های پژوهشی به شرح زیر است:
(1)
نقشه های داخلی مختلف ویژگی ها و کاربردهای متفاوتی دارند و مبنای خوشه بندی نیز متفاوت است. بر اساس مقایسه ویژگی‌های فضایی نقشه‌های داخلی و خارجی و روش‌های خوشه‌بندی موجود ویژگی‌های فضای باز، ما یک طرح خوشه‌بندی مناسب برای ویژگی‌های فضای داخلی مراکز خرید پیشنهاد می‌کنیم و مبنای خوشه‌بندی داخلی را به ویژگی‌های هندسی، معنایی و توپولوژیکی تقسیم می‌کنیم.
(2)
برای انجام خوشه‌بندی خودکار ویژگی‌های فضای داخلی، روش شبکه عصبی برای مسئله خوشه‌بندی ویژگی‌های ناحیه اعمال می‌شود و بنابراین یک مدل خوشه‌بندی رمزگذار-رمزگشا ساخته می‌شود. این مدل از یک رمزگذار متشکل از GCN و یک رمزگشا برای اندازه گیری شباهت تشکیل شده است.
(3)
با توجه به ویژگی‌های گراف و روش‌های تجمیع گره، مدل GCN مدل‌های مختلف را مشتق می‌کند، و مدل‌های پیچیدگی نمودار سطوح مختلف کاربردی برای وظایف تعمیم نقشه‌کشی دارند. برای کشف اینکه کدام مدل برای کار خوشه‌بندی ویژگی‌های فضای داخلی مناسب‌تر است، از شبکه کانولوشن گراف رابطه (RGCN) و شبکه توجه نمودار رابطه‌ای (RGAT) برای استخراج ویژگی‌های ویژگی‌های فضای داخلی، و قابلیت کاربرد مدل‌های مختلف GCN استفاده می‌شود. وظایف خوشه‌بندی داخلی از طریق مقایسه آزمایش‌ها و نتایج تحلیل می‌شوند.

2. مواد و روشها

2.1. مدل خوشه بندی رمزگذار-رمزگشا

2.1.1. رمزگذار

الگوریتم خوشه بندی سنتی نمی تواند به راحتی شباهت ویژگی های فضای داخلی را اندازه گیری کند. با این حال، توانایی یادگیری قوی GCN ها آنها را قادر می سازد تا استخراج مشخصه عمیق داده های ساختار گراف را انجام دهند. بنابراین، مدل رمزگذار – رمزگشا مبتنی بر GCN برای استخراج مشخصه و خوشه‌بندی ویژگی‌های فضای داخلی در این مطالعه انتخاب شد. با توجه به ویژگی‌های مجاورت توپولوژیکی منحصربه‌فرد ویژگی‌های فضای داخلی، رمزگذار از RGCN [ 31 ] و RGAT [ 32 ] برای استخراج اطلاعات ساختار فضایی و اطلاعات ویژگی ویژگی‌های فضای داخلی استفاده می‌کند، که عملکرد اصلی آن تسهیل بیان کاهش ابعاد گره است. مشخصات. GCN و شبکه توجه نمودار (GAT) [ 33] در آزمایش های خوشه بندی به عنوان کنترل گنجانده شده اند.

RGCN عملیات تجمیع را بر روی گره‌هایی با انواع روابط مختلف انجام می‌دهد و ساختار نمودار را با توجه به ویژگی‌های مختلف روی لبه‌ها به زیر نمودارهای مختلف تقسیم می‌کند. گره های همسایگی بر روی گراف فرعی که با تقسیم به دست می آید، جمع می شوند و سپس نتایج تجمیع شده هر زیرگراف اضافه شده و به لایه بعدی شبکه وارد می شود. یک نمایندگی مشترک به شرح زیر است:

ساعت)منσ(r∈ _نrمن1جمن ، ردبلیول )rساعتل )j+دبلیول )0ساعتل )من)ساعتمن(ل+1)=�(∑�∈آر∑�∈نمن�1جمن،�دبلیو�(ل)ساعت�(ل)+دبلیو0(ل)ساعتمن(ل))

جایی که ساعت)منساعتمن(ل+1)نمایش مشخصه گره i در لایه l + 1 است، σ نشان دهنده تابع فعال سازی است، نrمننمن�نشان دهنده شاخص گره همسایه تحت رابطه r ∈ R ، i، r ثابت نرمال سازی است، ساعتلمنساعتمنلوضعیت گره همسایه j را در لایه l نشان می دهد ، دبلیول0دبلیو0ل ساعتلمنساعتمنلنشان دهنده یادگیری خود گره i و دبلیولrدبلیو�لماتریس وزن رابطه r است.

GAT می‌تواند ضرایب وزن بین گره‌ها را به تنهایی یاد بگیرد، که مکانیسم توجه را به GCN معرفی می‌کند تا از پیش‌فرض GCN برای همه گره‌های همسایه که بر وزن یکسان تأثیر می‌گذارند، جلوگیری کند. RGAT مکانیسم توجه را به مدل RGCN گسترش می دهد و فرمول محاسبه به شرح زیر است:

ساعت)منσ(r∈ _نrمنαر )من ، جgر )j)ساعتمن(ل+1)=�(∑�∈آر∑�∈نمن��من،�(�)��(�))

جایی که αrمن ، ج�من،��ضریب توجه تولید شده برای گره i با رابطه r است، j گره همسایه i است، و grj���نمایش بردار ویژه میانی گره i تحت رابطه r است.

2.1.2. رمزگشا

رمزگشا ویژگی های استخراج شده توسط رمزگذار را در جفت های نمونه ترکیب می کند و یک عملیات محصول داخلی را روی بردارهای مشخصه جفت نمونه انجام می دهد تا شباهت بین جفت های نمونه را به دست آورد. سپس احتمال پیوند بین آنها از طریق تابع Softmax به دست می آید. هر چه احتمال پیوند بیشتر باشد، احتمال اینکه جفت های نمونه در یک کلاس خوشه شوند بیشتر می شود. پس از آن، یک آستانه مناسب برای طبقه‌بندی احتمال به دو دسته تنظیم می‌شود و تنها پیوندهایی که از آستانه فراتر می‌روند حفظ می‌شوند، در نتیجه کل ساختار نقشه داخلی را تقسیم و خوشه‌بندی می‌کند.

این مفهوم خوشه‌بندی از روش یادگیری نظارت شده استفاده می‌کند که اطلاعات برچسب قابل اعتماد و توابع از دست دادن را انتخاب می‌کند. جفت‌های نمونه بر اساس شباهت بین آنها برچسب‌گذاری می‌شوند، جایی که 1 نشان دهنده شباهت زیاد و 0 نشان دهنده شباهت کم است. تابع ضرر با تفاوت بین شباهت واقعی و ارزش برچسب نمونه تعریف می شود و مدل با به حداقل رساندن تفاوت آموزش داده می شود. همانطور که مسئله خوشه بندی نقاط به مسئله طبقه بندی یال ها تبدیل می شود، تابع تلفات آنتروپی متقاطع برای مدل خوشه بندی پیشنهادی ویژگی های فضای داخلی مناسب تر است، زیرا نتیجه پیش بینی آن مقدار احتمال متناظر یک نمونه متعلق به آن است. n است.دسته بندی ها. مقدار از دست دادن فاصله بین دو توزیع احتمال را توصیف می کند و هر چه فاصله کمتر باشد، دو احتمال نزدیکتر است. فرم استاندارد آن به شرح زیر است:

y،yˆ=1نمن– [yمن× ثبت نام (yمنˆyمن× log yمنˆ]�(�،�^)=1ن∑من-[�من×ورود به سیستم(�من^)+(1-�من)×ورود به سیستم(1-�من^)]

جایی که yمن�مننشان دهنده برچسب نمونه i است، yمنˆ�من^ i مقدار پیش‌بینی‌شده مدل است و N تعداد نمونه‌ها را نشان می‌دهد. رابطه پیوند بین ویژگی های ناحیه به عنوان مقدار برچسب y در تابع تلفات متقابل آنتروپی استفاده می شود و خروجی رمزگشا به عنوان مقدار پیش بینی شده استفاده می شود. yˆ�^.

2.2. ساختمان مدل

2.2.1. ورودی مدل

ورودی مدل شامل ماتریس مجاورت، ماتریس مشخصه نقاط و ماتریس مشخصات لبه ها است. ماتریس مجاورت رابطه ارتباط بین گره ها را توصیف می کند و اطلاعات ساختار فضایی نقشه داخلی را منعکس می کند. ماتریس مشخصه نقاط نشان دهنده ویژگی های هندسی و معنایی و ماتریس مشخصه یال ها نشان دهنده مجاورت توپولوژیکی است. ویژگی‌های هندسی شامل هشت ویژگی مانند مختصات مرکز ویژگی‌های فضای داخلی، جهت حداقل مستطیل محدود شده و درجه گسترش است. فرمول و تعریف آن در جدول 1 نشان داده شده است. ویژگی های معنایی به ویژگی های عملکردی ویژگی های فضای داخلی بستگی دارد. این مطالعه تقریباً ویژگی‌های منطقه‌ای مراکز خرید را به سه دسته تقسیم می‌کند: ویژگی‌های مورد علاقه کاربران (مانند خرید، غذاخوری، سرویس‌های بهداشتی)، ویژگی‌های ترافیکی (مانند ورودی‌ها، پله‌های برقی، آسانسور)، و مناطق غیرباز (مانند تأسیسات الکتریکی، مناطق اداری)، همانطور که در نشان داده شده است جدول 2 نشان داده شده است.

2.2.2. آموزش مدل و طراحی پارامتر

آموزش مدل یادگیری و تنظیم پارامترها با محاسبه مشتق تابع تلفات با توجه به هر پارامتر شبکه و تعیین پارامترهای بهینه مدل است. الگوریتم پس انتشار اغلب برای آموزش مدل های شبکه عصبی استفاده می شود که مشتق جزئی تابع تلفات را برای وزن و بایاس هر لایه در شبکه از طریق قانون زنجیره ای مشتقات محاسبه می کند [ 34 ]. ] و در نهایت از الگوریتم نزول گرادیان برای به روز رسانی استفاده می کند. پارامترهایی برای کاهش خطای لایه خروجی. این فرآیند معمولاً به سه مرحله تقسیم می شود:
(1)
وارد کردن داده های پردازش شده و پارامترهای مقداردهی اولیه مدل و انجام محاسبه پیشخور لایه به لایه برای به دست آوردن خالص ورودی و مقدار فعال سازی هر لایه تا زمانی که مقدار احتمال پیوند آخرین لایه خروجی شود.
(2)
محاسبه عبارت خطا برای هر لایه به صورت معکوس. برای یک نورون در لایه l ، عبارت خطای آن برابر است با مجموع وزن خطاهای تمام نورون های لایه l + 1 متصل به این نورون.
(3)
به روز رسانی پارامترهای مدل با توجه به روش گرادیان نزول برای به حداقل رساندن خطا. فرآیند خاص محاسبه گرادیان تابع تلفات با توجه به وزن و بایاس هر لایه است. در روش گرادیان نزول، پارامترهای وزن مدل با فرمول زیر به روز می شوند:
دبلیودبلیو– η∂ y،yˆ)∂ Wدبلیو=دبلیو-�∂�(�،�^)∂دبلیو

که در آن η نشان دهنده اندازه گام هر به روز رسانی است که به آن نرخ یادگیری می گویند.

برخی از پارامترها در مدل را نمی توان به طور خودکار یاد گرفت و باید به صورت دستی طراحی شوند که به آن هایپرپارامتر می گویند. تنظیمات هایپرپارامترها معمولا بر اساس تجربه محققین است و نمی توان آن را به طور خودکار از طریق آموزش مدل به روز کرد. اولین انتخاب ابرپارامترها و تنظیم بعدی برای بهینه سازی، تمرکز تحقیقات یادگیری ماشین است. برای کاهش زمان صرف شده برای تنظیمات پارامتر، این مطالعه از یک جستجوی تصادفی برای تنظیم فراپارامترها در مدل استفاده می‌کند، که در آن تعداد ثابتی از پارامترها بر اساس یک استراتژی تصادفی برای بهینه‌سازی مدل به جای تلاش برای تمام مقادیر پارامتر استفاده می‌شود. برای مدل خوشه‌بندی پیشنهادی در این مطالعه، فراپارامترهای درگیر شامل یک تابع فعال‌سازی، نرخ ترک تحصیل، نرخ یادگیری، دوره‌ها، اندازه دسته‌ای و آستانه است. درمیان دیگران. تابع فعال‌سازی مدل از تابع ReLU (واحد خطی اصلاح‌شده) استفاده می‌کند، که وقتی ورودی مثبت است بدون تغییر باقی می‌ماند و به طور موثر مشکل ناپدید شدن گرادیان را برطرف می‌کند.19 ].

2.2.3. شاخص ارزیابی نتایج خوشه بندی

ابتدا از ناحیه زیر منحنی (AUC) برای ارزیابی عملکرد مدل خوشه‌بندی استفاده می‌شود. نتیجه خروجی مدل خوشه بندی وضعیت پیوند بین گره ها است. اگر لینک وجود داشته باشد متعلق به یک نمونه مثبت است و اگر لینک وجود نداشته باشد متعلق به یک نمونه منفی است. برای نمونه های n که از کوچک به بزرگ مرتب شده اند، فرمول محاسبه AUC به شرح زیر است:

یک Uسی=من دی+nکمن)2nآ�سی=∑من∈دی+�آ�کمن-متر(متر+1)2متر�

جایی که kمن�آ�کمننشان دهنده شماره دنباله ای از نمونه i پس از مرتب سازی است، و محدوده مقدار [1,N] است. + مجموعه ای از مثال های مثبت است. و m و n به ترتیب تعداد نمونه های مثبت و منفی هستند. محدوده مقدار AUC [0،1] است. هر چه مقدار بزرگتر باشد، عملکرد مدل بهتر است.

دوم، شاخص رند تنظیم شده (ARI) [ 35 ، 36 ] برای ارزیابی کمی نتایج خوشه‌بندی استفاده می‌شود. ARI یک شاخص ارزیابی برای خوشه‌بندی نظارت شده است که با مقایسه تفاوت‌های بین نتایج خوشه‌بندی از پیش برچسب‌گذاری‌شده و تجربی به‌دست‌آمده عمل می‌کند. فرمول به شرح زیر است:

I=من ، ج(نمن ج2) – [من(آمن2)j(بj2) ]/(تی2)12[من(آمن2) +j(بj2) ][من(آمن2)j(بj2) ]/(تی2)آآرمن=∑من،�(نمن�2)-[∑من(آمن2)∑�(ب�2)]/(تی2)12[∑من(آمن2)+∑�(ب�2)]-[∑من(آمن2)∑�(ب�2)]/(تی2)

جایی که آمنآمنو بمنبمنتعداد ویژگی های منطقه موجود در هر دسته را به ترتیب در نتایج آزمایشی و برچسب گذاری نشان می دهد. نمن ، جنمن،�نشان دهنده تعداد همپوشانی ویژگی های منطقه در نتایج حاشیه نویسی ها و آزمایش های زیر یک دسته است. محدوده مقدار ARI [-1،1] است، و هر چه مقدار بزرگتر باشد، اثر خوشه‌بندی قوی‌تر است.

2.3. آزمایش کنید

این مطالعه از نقشه داخلی مراکز خرید بزرگ در نانجینگ به عنوان شی خوشه‌بندی استفاده می‌کند و داده‌های نقشه داخلی 40 مرکز خرید را بر روی نقشه AutoNavi جمع‌آوری می‌کند که می‌تواند شامل 20000 ویژگی منطقه باشد. شکل 1 را ببینید .
قبل از آموزش مدل، داده های نمونه باید از قبل پردازش شوند، مانند از طریق برداری، افزودن فیلدها و برچسب گذاری. پس از آن، پایتون برای تبدیل فیلد ویژگی به ماتریس مجاورت و ماتریس مشخصه ها به عنوان داده های ورودی مدل استفاده می شود. فرآیند پردازش میدانی خاص شامل مراحل زیر است: (1) ساخت مثلث دلونی با توجه به مختصات مرکز ویژگی منطقه، و سپس تبدیل آن به ماتریس مجاورت نمودار، (2) عددی سازی و عادی سازی ویژگی های هندسی و ویژگی های معنایی. برای تولید یک ماتریس مشخصه از گره ها، و (3) تولید یک ماتریس مشخصه از لبه ها بر اساس روابط مجاورت توپولوژیکی بین ویژگی های ناحیه.
ابتدا PyTorch Geometric (PyG) اعمال می شود که یک کتابخانه توسعه یافته توسط PyTorch برای یادگیری عمیق بر روی نمودارها است. از آن برای ساخت مدل استفاده شد که از داده های ساختمان به عنوان نمودار و به عنوان ورودی مستقیم به مدل پشتیبانی می کند. دوم، نمونه ها با استفاده از روش طبقه بندی تصادفی به مجموعه های آموزشی و آزمایشی به نسبت 8:2 تقسیم می شوند. هر نمونه شامل ویژگی های گره 11 بعدی است که نشان دهنده 11 فیلد ویژگی ویژگی های ناحیه است. بنابراین، تعداد کانال‌های لایه ورودی به مدل 11 کانال است. در آزمایش، تعداد کانال‌های لایه پنهان 64 و لایه خروجی 2 کانال است که نشان می‌دهد پیوند وجود دارد یا وجود ندارد. ، به ترتیب. سوم، پارامترها و فراپارامترهای مدل مقداردهی اولیه می‌شوند و سپس برای آموزش به نمونه‌ها وارد می‌شوند. کلید آموزش مدل استفاده از تابع ضرر برای محاسبه تفاوت بین مقدار واقعی پیش بینی شده و مقدار خروجی مورد انتظار و به حداقل رساندن مقدار تلفات با تنظیم فراپارامترها برای رسیدن مدل به حالت همگرایی است. پس از محاسبه تلفات مکرر و به روز رسانی پارامترها، نرخ خروج مدل در نهایت 0.5، اندازه دسته 16 و تعداد دوره ها 500 تعیین می شود. سایر پارامترهای خاص در زیر نشان داده شده است.جدول 3 .

3. بحث

3.1. سنجش عملکرد

ما تغییرات در AUC و ارزش تلفات دوره‌ها را در طول آموزش چهار مدل خوشه‌بندی برای ارزیابی عملکرد و اثر آموزشی هر مدل خوشه‌بندی ثبت کردیم. همانطور که در نشان داده شده است شکل 2 نشان داده شده است، روند کلی تغییر مدل ها تقریباً یکسان است: (1) زیان روند نزولی را نشان می دهد و مقدار پس از 100 تکرار شروع به تثبیت می کند. RGAT و RGCN تلفات مشابهی دارند که کمتر از GAT و GCN است. (2) مقادیر AUC روند صعودی را نشان می دهند و پس از 100 تکرار تثبیت می شوند. این روند نشان می دهد که چارچوب خوشه بندی رمزگذار-رمزگشا می تواند به طور موثر ویژگی های ویژگی های ناحیه مناسب برای خوشه بندی را بیاموزد. علاوه بر این، نرخ عملکرد RGAT و RGCN بالاتر از GAT و GCN است، که نشان می‌دهد RGCN برای یادگیری مشخصه ویژگی‌های فضای داخلی مناسب‌تر است.
زمان پیش‌بینی مدل نشان‌دهنده پیچیدگی زمانی مدل در پیش‌بینی نمونه است که اغلب برای اندازه‌گیری عملکرد مدل استفاده می‌شود. زمان پیش بینی هر مدل نشان داده شده است شکل 3 نشان داده شده است. RGCN کل ساختار گراف را با توجه به نوع رابطه به زیرگراف های مختلف تقسیم می کند و در نهایت آنها را به طور جداگانه جمع می کند. بنابراین، پیچیدگی زمانی کمی بالاتر از GCN است. GAT مکانیزم توجه را اتخاذ می کند و ضریب توجه را برای هر گره به طور جداگانه قبل از تجمیع محاسبه می کند. از این رو طراحی مدل آن بسیار پیچیده تر از مدل GCN است. دلیل اینکه پیچیدگی زمانی مدل GAT از RGAT بیشتر است این است که محاسبه ضریب توجه RGAT برای هر گره پس از تشخیص انواع روابط ساده تر است، اما مقدار ضریب توجه GAT تمام مقادیر گره های همسایه را در نظر می گیرد.

3.2. تجزیه و تحلیل نتایج خوشه بندی

نمونه‌های نقشه داخلی توسط مدل خوشه‌بندی آموزش‌دیده پیش‌بینی شد و مقادیر ARI نتایج پیش‌بینی چهار مدل به‌دست آمد، همانطور که در نشان داده شده است. شکل 4 نشان داده شده است.، که به طور کمی کارایی خوشه بندی هر مدل را توصیف می کند. دقت خوشه بندی GCN و GAT در گروه کنترل به طور قابل توجهی کمتر از گروه های تجربی RGCN و RGAT است و ARI کمتر از 0.4 است. ARI از RGCN در گروه تجربی بالاترین، نزدیک به 0.95 است، بنابراین نشان می دهد که بیان مجاورت توپولوژیکی در ارزیابی خوشه بندی ویژگی های منطقه داخلی بسیار مهم است. نتایج پیش‌بینی رضایت‌بخش شبکه توجه گراف احتمالاً به این دلیل رخ داده است که مدل بسیار پیچیده بوده و برای استخراج مشخصه ویژگی‌های منطقه داخلی مناسب نیست.
برای بررسی بیشتر کارایی خوشه‌بندی مدل و تأثیر پارامترهای آستانه بر نتایج خوشه‌بندی، از RGCN به عنوان مثال برای ثبت تغییرات در ARI با تنظیمات آستانه‌های مختلف استفاده شد، همانطور که در شکل 5 نشان داده شده است. نتایج نشان می دهد که نتیجه خوشه بندی ایده آل در آزمایش خوشه بندی پارتیشن 0.62 به عنوان مقدار پارتیشن بود. اگر احتمال پیوند بین دو گره از 0.62 بیشتر شود، به احتمال زیاد در یک کلاس خوشه می شوند.
همراه با تجزیه و تحلیل فوق و داده‌های جدول 4 ، مدل RGCN به وضوح نتایج عالی را از نظر از دست دادن تمرین، AUC، پیچیدگی زمانی و دقت خوشه‌بندی نشان داد. برای تجزیه و تحلیل اثربخشی خوشه‌بندی مدل به صورت شهودی، از مدل خوشه‌بندی RGCN آموزش‌دیده برای تجسم نمونه‌های نقشه مختلف استفاده شد. یک نمونه نقشه با تعداد متوسطی از ویژگی های منطقه انتخاب شد. همانطور که در شکل 6 نشان داده شده است، سمت چپ نتیجه خوشه بندی مدل خوشه بندی RGCN را نشان می دهد و سمت راست نتیجه خوشه بندی مصنوعی را نشان می دهد. ویژگی ناحیه همان رنگ نشان دهنده همان دسته است. رنگ یکسان در دو نقشه هیچ رابطه ای با هم ندارد و رنگ فقط برای نشان دادن ویژگی های منطقه ادغام شده استفاده می شود. اثر کلی مدل به وضوح ایده آل است. اگرچه رابطه مکانی و شکل هندسی نمونه‌ها نسبتاً پیچیده است، اما بیشتر ویژگی‌های ناحیه‌ای که به هم متصل هستند و باید در یک دسته طبقه‌بندی شوند، خوشه‌بندی صحیحی را نشان می‌دهند و تنها تعداد کمی از ویژگی‌های ناحیه موفق به خوشه‌بندی نمی‌شوند.

4. نتیجه گیری

این مطالعه بر تعمیم نقشه‌برداری نقشه‌های داخلی متمرکز است و از یادگیری عمیق برای کشف روش‌های خوشه‌بندی خودکار برای ویژگی‌های منطقه داخلی استفاده می‌کند. ما از یک چارچوب مدل رمزگذار-رمزگشا برای تکمیل خوشه‌بندی عمیق ویژگی‌های فضای داخلی استفاده کردیم و از GCN برای اطمینان از خوشه‌بندی خودکار ویژگی‌های فضای داخلی استفاده کردیم. رمزگذارها از RGCN و RGAT استفاده می کنند و GCN و GAT به ترتیب به عنوان گروه های کنترل برای مقایسه و تجزیه و تحلیل اثرات خوشه بندی هر مدل استفاده می شوند. اول، طرح خوشه‌بندی پیشنهادی در این مطالعه می‌تواند به خوشه‌بندی مؤثر ویژگی‌های فضای داخلی یا به دلیل دقت مدل خوشه‌بندی یا اثر تجسم نتایج خوشه‌بندی دست یابد. دوم، مدل پیشنهادی دارای توانایی خوشه‌بندی عالی بر اساس مقدار ARI و نمودار اثر خوشه‌بندی است. از این رو، مدل خوشه‌بندی مبتنی بر چارچوب رمزگذار-رمزگشا می‌تواند به طور موثر یادگیری نظارت شده و خوشه‌بندی ویژگی منطقه را ترکیب کند. در نهایت، از طریق آزمایش‌های کنترلی، RGCN بهترین نتایج را در عملکرد مدل، پیچیدگی زمانی و دقت خوشه‌بندی به دست آورده است. بنابراین، مدل RGCN برای استخراج ویژگی های فضایی داخلی بسیار مناسب است.
در حال حاضر، تحقیق بر روی خوشه بندی خودکار ویژگی های فضای داخلی هنوز در مرحله اکتشافی اولیه است. چه از نظر طرح خوشه‌بندی، ساخت مدل یا ساختار شبکه، خوشه‌بندی خودکار همچنان باید به‌طور مستمر بهبود و بهینه شود. این پژوهش بر اساس تحقیقات نظری و نتایج کاربردی، نکات زیر را برای بهبود خلاصه می‌کند.
اول: بهینه سازی طرح خوشه بندی ویژگی های فضای داخلی در ترکیب با صحنه های داخلی خاص . در مقایسه با فضاهای بیرونی، فضای داخلی دارای ویژگی های معنایی غنی تر و صحنه های شخصی تر است. بنابراین، اصول تعمیم کارتوگرافی نیز متفاوت است. این مطالعه فقط ویژگی‌های معنایی را از انواع عملکردی ویژگی‌های منطقه در مرکز خرید متمایز می‌کند و ترجیحات شخصی کاربران، هدف استفاده از تصاویر و ویژگی‌های خاص سناریوهای کاربردی را در نظر نمی‌گیرد. در تحقیقات آتی، امید است که ویژگی های صحنه و نیازهای کاربر بیشتر مورد توجه قرار گیرد.
دوم: بهبود در دسترس بودن نقشه های داخلی و کیفیت نمونه های خوشه بندی. داده های نقشه داخلی مورد استفاده در این مطالعه جمع آوری، برداری و به صورت دستی برچسب گذاری شد. از این رو، خطاهای دستی اجتناب ناپذیری وجود دارد که نتایج تجربی را تا حدی تحت تأثیر قرار می دهد. با این حال، به دلیل حریم خصوصی فعلی داده های داخلی، به دست آوردن مستقیم داده های برداری نقشه های داخلی دشوار است. علاوه بر این، موارد کمی برای ارجاع به خوشه‌بندی ویژگی‌های فضای داخلی وجود دارد. این عوامل محدودیت های زیادی را برای مطالعه فضاهای داخلی ایجاد کرده است. امید است در آینده راه های بیشتری برای به دست آوردن داده های نقشه های داخلی وجود داشته باشد و همچنین تحقیقات بیشتری در مورد اصول خوشه بندی نقشه های داخلی و روش های نظری انجام شود.
سوم: استفاده از سایر مدل های خوشه بندی عمیق. این مطالعه تلاش می‌کند تا روش خوشه‌بندی عمیق ویژگی‌های فضای داخلی را از دیدگاه GCN توصیف کند. با این حال، در زمینه یادگیری عمیق، هنوز بسیاری از روش‌های خوشه‌بندی داده‌های نموداری موجود وجود دارد. در آینده، مدل‌های مختلف خوشه‌بندی عمیق برای داده‌های گراف باید برای بهبود اثربخشی و دقت خوشه‌بندی بررسی شوند.

منابع

  1. وو، اف. گونگ، ایکس. Du, J. مروری بر پیشرفت تحقیق در تعمیم خودکار نقشه. Acta Geod. کارتوگر. گناه 2017 ، 46 ، 1645-1664. [ Google Scholar ]
  2. گوتلیب، دی. Marciniak, J. جنبه های نقشه برداری در طراحی سیستم های ناوبری داخلی. آنو. پیمایش. 2012 ، 19 Pt 1 ، 35-48. [ Google Scholar ] [ CrossRef ]
  3. Jiang, M. تجسم چند سطحی ویژگی POI در نقشه برداری داخلی . دانشگاه ووهان: ووهان، چین، 2019. [ Google Scholar ]
  4. نورمن، MA; Njaerheim، HRS بهبود تجربه کاربری نقشه‌های داخلی از طریق ادغام اتاق‌ها. پایان نامه کارشناسی ارشد، دانشگاه علم و صنعت نروژ (NTNU)، تروندهایم، نروژ، 2017. [ Google Scholar ]
  5. هو، ز. زو، جی. Xu, Z. تحقیق در مورد تجسم نقشه کشی چند مقیاسی با فناوری LOD و تعمیم کارتوگرافی. علمی Surv. نقشه 2006 ، 31 ، 78-79. [ Google Scholar ]
  6. او، ی. تحقیق و کاربرد الگوریتم ادغام اجسام چندضلعی در سنتز نقشه نگاری علوم زمین . دانشگاه ژجیانگ: هانگژو، چین، 2007. [ Google Scholar ]
  7. Qi، HB; Li، ZL رویکردی برای ایجاد گروه بندی بر اساس محدودیت های سلسله مراتبی. بین المللی قوس. فتوگرام حسگر از راه دور اسپات. Inf. علمی 2008 ، 449-454. [ Google Scholar ]
  8. دنگ، سی. تیان، جی. Xia, Q. مدل جدید برای طراحی و بیان نقشه های داخلی موبایل. جی. سیست. شبیه سازی 2017 ، 29 ، 2952. [ Google Scholar ]
  9. یینگ، اس. زو، ال. لی، ال. سو، اچ. Cao, X. نمایش نقشه های داخلی با تجزیه و تحلیل فضای داخلی. جی. ناویگ. موقعیت 2015 ، 3 ، 74-78، 91. [ Google Scholar ]
  10. رادیک، جی اف. چو، SC; پان، جی.اس. طرح‌های نمونه‌گیری چند مرکزی جدید برای الگوریتم‌های مبتنی بر K-medoids. بین المللی جی. دانش. مبتنی بر اینتل مهندس سیستم 2004 ، 8 ، 45-56. [ Google Scholar ]
  11. گوا، کیو. ژنگ، سی. روش خوشه بندی سلسله مراتبی گروه نقاط بر اساس نمودار همسایگی. Acta Geod. کارتوگر. گناه 2008 ، 2 ، 256-261. [ Google Scholar ]
  12. Yan, X. تجزیه و تحلیل الگوی ساختمان با پشتیبانی Deep Convolutional Learning . دانشگاه ووهان: ووهان، چین، 2019. [ Google Scholar ]
  13. وانگ، ز. خوشه ساختمانها بر اساس شبکه عصبی SOM . دانشگاه علوم و فناوری الکترونیک چین: چنگدو، چین، 2016. [ Google Scholar ]
  14. چنگ، بی. تحقیق در مورد تعمیم هوشمند نقشه مبتنی بر Ann برای ساختمانها . دانشگاه علوم و فناوری الکترونیک چین: چنگدو، چین، 2014. [ Google Scholar ]
  15. Ai, T. برخی از افکار در مورد یادگیری عمیق نقشه برداری را قادر می سازد. Acta Geod. کارتوگر. گناه 2021 ، 50 ، 1170-1182. [ Google Scholar ]
  16. Kipf، TN; Welling, M. طبقه بندی نیمه نظارت شده با شبکه های کانولوشن گراف. arXiv 2016 , arXiv:1609.02907. [ Google Scholar ]
  17. برونا، جی. زارمبا، دبلیو. اسلم، آ. LeCun، Y. شبکه های طیفی و شبکه های متصل به صورت محلی روی نمودارها. arXiv 2013 , arXiv:1312.6203. [ Google Scholar ]
  18. دیفرارد، ام. برسون، ایکس. Vandergheynst، P. شبکه‌های عصبی کانولوشنال بر روی نمودارها با فیلتر کردن سریع طیفی موضعی . پیشرفت در سیستم های پردازش اطلاعات عصبی؛ مطبوعات MIT: نیویورک، نیویورک، ایالات متحده آمریکا، 2016; صص 3844–3852. [ Google Scholar ]
  19. ژانگ، ک. ژنگ، جی. شن، جی. Ma, J. کاربرد شبکه پیچیدگی نمودار در انتخاب شبکه راه. علمی Surv. نقشه 2021 ، 46 ، 165-170. [ Google Scholar ]
  20. یو، ی. او، ک. وو، اف. Xu, J. گراف کانولوشن شبکه عصبی روش برای طبقه بندی شکل سکونتگاه های مساحتی. در دسترس آنلاین: https://kns.cnki.net/kcms/detail/11.2089.P.20211208.2334.008.html (دسترسی در 11 دسامبر 2021).
  21. لینگ، ز. لیو، تی. دو، پ. ژانگ، ی. یانگ، جی. Suo, X. تشخیص الگوی ساختمانهای منظم با حجم نمونه نامتعادل. J. Geoinf. علمی 2022 ، 24 ، 63-73. [ Google Scholar ]
  22. Guo, X. مطالعه ای در مورد الگوریتم های خوشه بندی تصویر با شبکه های عصبی عمیق . دانشگاه ملی فناوری دفاعی: چانگشا، چین، 2020. [ Google Scholar ]
  23. چن، جی. یادگیری عمیق با خوشه بندی ناپارامتریک. arXiv 2015 ، arXiv:1501.03084. [ Google Scholar ]
  24. تیان، اف. گائو، بی. کوی، کیو. چن، ای. لیو، TY یادگیری نمایش های عمیق برای خوشه بندی گراف. در مجموعه مقالات کنفرانس AAAI در مورد هوش مصنوعی، شهر کبک، QC، کانادا، 27-31 ژوئیه 2014. پ. 28. [ Google Scholar ]
  25. دوست خوب، من. پوگت آبادی، ج. میرزا، م. خو، بی. وارد-فارلی، دی. اوزایر، س. کورویل، آ. Bengio، Y. شبکه های متخاصم مولد. اشتراک. ACM 2020 ، 63 ، 139-144. [ Google Scholar ] [ CrossRef ]
  26. Kingma، DP; Welling، M. خودکار رمزگذاری خلیج های متغیر. arXiv 2013 ، arXiv:1312.6114. [ Google Scholar ]
  27. Doersch, C. Tutorial on variational autoencoder. arXiv 2016 , arXiv:1606.05908. [ Google Scholar ]
  28. ژو، جی. کوی، جی. هو، اس. ژانگ، ز. یانگ، سی. لیو، ز. وانگ، ال. لی، سی. Sun، M. گراف شبکه های عصبی: بررسی روش ها و کاربردها. arXiv 2018 , arXiv:1812.08434. [ Google Scholar ] [ CrossRef ]
  29. چانگ، جی. وانگ، ال. منگ، جی. شیانگ، اس. Pan, C. خوشه‌بندی تصویر تطبیقی ​​عمیق. در مجموعه مقالات کنفرانس بین المللی IEEE در بینایی کامپیوتر، ونیز، ایتالیا، 22 تا 29 اکتبر 2017؛ صص 5879–5887. [ Google Scholar ]
  30. جی، Q. سان، ی. هو، ی. یین، بی. بررسی خوشه‌بندی با یادگیری عمیق. J. دانشگاه پکن. تکنولوژی 2021 ، 47 ، 912-924. [ Google Scholar ]
  31. شلیختکرول، م. Kipf، TN; بلوم، پی. ون دن برگ، آر. تیتوف، آی. Welling, M. مدل سازی داده های رابطه ای با شبکه های کانولوشن گراف. در مجموعه مقالات کنفرانس وب معنایی اروپایی، انیساراس، یونان، 3 تا 7 ژوئن 2018؛ صص 593-607. [ Google Scholar ]
  32. بسبریج، دی. شربرن، دی. کاوالو، پی. شبکه های توجه گراف رابطه ای هامرلا، نیویورک. arXiv 2019 ، arXiv:1904.05811. [ Google Scholar ]
  33. ولیچکوویچ، پ. کوکورول، جی. کازانووا، آ. رومرو، آ. لیو، پی. Bengio، Y. گراف شبکه های توجه. arXiv 2017 , arXiv:1710.10903. [ Google Scholar ]
  34. Qiu، X. شبکه های عصبی و یادگیری عمیق. جی. چین. Inf. روند. 2020 ، 34 ، 4. [ Google Scholar ]
  35. یونگ، کی. Ruzzo، WL جزئیات شاخص رند تنظیم‌شده و الگوریتم‌های خوشه‌بندی، مکمل مقاله یک مطالعه تجربی در مورد تجزیه و تحلیل مؤلفه‌های اصلی برای خوشه‌بندی داده‌های بیان ژن است. بیوانفورماتیک 2001 ، 17 ، 763-774. [ Google Scholar ] [ CrossRef ] [ PubMed ]
  36. استاینلی، دی. ویژگی های شاخص رند تعدیل شده هوبرت- آرابل. روانی مواد و روش ها 2004 ، 9 ، 386-396. [ Google Scholar ] [ CrossRef ] [ PubMed ]
شکل 1. نقشه توزیع داده ها از مراکز خرید در نانجینگ.
شکل 2. از دست دادن و AUC چهار مدل مورد مطالعه بر اساس تکرار متفاوت است.
شکل 3. زمان های پیش بینی برای مدل های مختلف.
شکل 4. مقادیر ARI از نتایج پیش بینی شده توسط چهار مدل.
شکل 5. مقادیر ARI از نتایج پیش بینی شده توسط چهار مدل.
شکل 6. نتایج خوشه بندی یک نمونه (چپ: مدل RGCN، سمت راست: نتیجه مورد انتظار).

بدون دیدگاه

دیدگاهتان را بنویسید