خلاصه

تقسیم بندی عناصر آدرس چینی یک مرحله اساسی و کلیدی در فناوری کدگذاری جغرافیایی است و نتایج تقسیم‌بندی مستقیماً بر دقت و قطعیت کدگذاری جغرافیایی تأثیر می‌گذارد. با این حال، به دلیل عدم وجود مرزهای واضح کلمه در متن چینی، ویژگی های دستوری و معنایی متن چینی پیچیده است. همراه با تنوع و پیچیدگی در عبارت آدرس چینی، تقسیم بندی عناصر آدرس چینی یک چالش اساسی است. بنابراین، این مقاله روشی برای تقسیم‌بندی عنصر آدرس چینی بر اساس یک شبکه عصبی واحد بازگشتی دروازه‌دار دو طرفه (Bi-GRU) پیشنهاد می‌کند. این روش از شبکه عصبی Bi-GRU برای تولید ویژگی های برچسب بر اساس تقسیم بندی کلمات چینی استفاده می کند و سپس از الگوریتم Viterbi برای انجام استنتاج برچسب برای دستیابی به تقسیم بندی عناصر آدرس چینی استفاده می کند. مدل شبکه عصبی بر اساس داده‌های آدرس نقطه مورد علاقه (POI) و داده‌های فهرست جزئی از نقشه Baidu از پکن آموزش و تأیید می‌شود. نتایج نشان می‌دهد که این روش از نظر عملکرد و کارایی بخش‌بندی نسبت به مدل‌های شبکه عصبی قبلی برتری دارد.

کلید واژه ها:

عنصر آدرس چینی شبکه عصبی Bi-GRU ; بخش بندی آدرس ویتربی

1. معرفی

با توسعه سریع فناوری هایی مانند اینترنت و داده های بزرگ و ظهور خدمات مبتنی بر مکان [ 1 ]، تقاضای عمومی برای داده های مکان به سرعت در حال افزایش است. طبق آمار، تقریباً 70 درصد از صفحات وب جهان حاوی اطلاعات مکان هستند. با این حال، بیشتر این اطلاعات در قالب متن بیان می شود [ 23 ] بیان می شود که منجر به کمبود اطلاعات مختصات مکانی می شود. بنابراین، ما به ابزارهایی برای تبدیل آدرس‌های متنی به مختصات فضایی و ارائه خدمات مبتنی بر مکان و قابلیت‌های تجزیه و تحلیل داده‌های بزرگ بر اساس مکان‌های مکانی به مردم نیاز داریم. تا به امروز، کدگذاری جغرافیایی مؤثرترین و متداول‌ترین روش برای ایجاد ارتباط بین آدرس‌های متنی و مختصات فضایی است. ].
ژئوکدینگ یک روش کدگذاری مبتنی بر فناوری موقعیت‌یابی فضایی است که راهی برای نگاشت آدرس‌های متنی بدون ساختار به مختصات جغرافیایی فراهم می‌کند [ 4 ]. ما می‌توانیم از فناوری ژئوکدینگ برای ایجاد رابطه بین اطلاعات غیر مکانی و اطلاعات مکانی در محدوده مرجع فضای جغرافیایی استفاده کنیم. بنابراین، ژئوکدینگ طیف گسترده ای از کاربردها در زمینه موقعیت یابی فضایی شهری و تحلیل فضایی، مانند واکنش اضطراری بلایا و مدیریت بلایا [5]، بررسی و پیشگیری از بیماری [ 6 ] و مکان یابی صحنه جرم [5] دارد. 7].]. این فرآیند تبدیل مختصات فضایی آدرس‌های متنی را از طریق تقسیم‌بندی عنصر آدرس، استانداردسازی آدرس، تطبیق آدرس و موقعیت‌یابی فضا [ 8 ]. فرآیند تقسیم‌بندی به فرآیند تقسیم‌بندی کلمات چینی اشاره می‌کند، که آدرس‌های چینی را به کلمات تقسیم می‌کند و آنها را با توجه به ویژگی‌های بیان عناصر آدرس علامت‌گذاری می‌کند تا به هدف تقسیم‌بندی عنصر آدرس برسد. این یک مرحله اساسی و حیاتی در ژئوکدینگ است و نتایج تقسیم‌بندی مستقیماً بر دقت و قطعیت کدگذاری جغرافیایی تأثیر می‌گذارد [ 10]]. در میان این مراحل، تقسیم‌بندی عنصر آدرس چینی به فرآیند تقسیم آدرس‌های چینی بدون ساختار به عناصر آدرس اشاره دارد [ 9 ]. متأسفانه، به دلیل تنوع و پیچیدگی در نحوه بیان آدرس‌های چینی، تقسیم‌بندی عناصر آدرس چینی فرآیندی بسیار پیچیده است. دلایل خاص به شرح زیر است:
(1)
به دلیل وسعت سرزمین چین، ملیت‌های متعدد و تفاوت‌های جغرافیایی و فرهنگی زیاد، آدرس‌های چینی در وضعیتی بی‌نظم و فاقد استانداردهای یکسان هستند و باعث سردرگمی می‌شوند. بنابراین، تا به امروز، چین یک استاندارد نام‌گذاری آدرس یکپارچه چینی معتبر و قابل اعتمادی که کل کشور را پوشش دهد، ایجاد نکرده است. در حال حاضر، با ظهور عصر داده های بزرگ، بیان آدرس چینی پیچیده تر و متنوع تر شده است [ 11 ]. این اختلال و سردرگمی فوق را تشدید می کند. این وضعیت تقسیم بندی عناصر آدرس چینی را پیچیده می کند.
(2)
بر خلاف جملات انگلیسی، که در آن فاصله ها به عنوان خطوط جداکننده طبیعی بین کلمات وجود دارد، جملات چینی را می توان تنها با علائم نگارشی مختلف تعریف کرد. مرحله تقسیم‌بندی آدرس چینی بسیار دشوارتر از بسیاری از زبان‌های دیگر است که فضاها جداکننده‌های طبیعی هستند.
(3)
با توجه به سیستم مدیریت نام مکان و آدرس منحصر به فرد چین و تنوع و پیچیدگی آدرس های چینی [ 12]، ادارات دولتی در همه سطوح، ادارات برنامه ریزی و ادارات حمل و نقل برای مدت طولانی فاقد منابع اطلاعاتی آدرس قابل اعتماد، استاندارد و واحد بوده اند. به عنوان مثال، در مدیریت نام‌گذاری آدرس پکن، نام‌گذاری بخش‌های اداری در تمام سطوح توسط اداره امور عمرانی پکن، نام‌گذاری جاده‌ها توسط اداره ترافیک و برنامه‌ریزی پکن و پلاک‌های نامگذاری خانه‌ها مدیریت می‌شود. ، ساختمان ها، واحدها و صفحات خانگی (اتاق) توسط اداره امنیت عمومی پکن مدیریت می شود. دستیابی به عبارات آدرس واحد به دلیل استانداردهای مختلف نامگذاری آدرس و نظارت مدیریتی چندین بخش دشوار است [ 13]]. این همچنین مدیریت آدرس ها را دشوارتر می کند و دقت تقسیم بندی برای انواع مختلف عناصر آدرس بسیار متفاوت است.
در سال های اخیر، با توسعه سریع فناوری های یادگیری عمیق و پردازش زبان طبیعی، تقسیم بندی کلمات چینی بر اساس شبکه های عصبی نیز به نتایج رضایت بخشی دست یافته است. به طور خاص، شبکه عصبی بازگشتی (RNN) و شبکه بهبودیافته آن به پیشرفت‌های قابل توجهی در دقت و کارایی بخش‌بندی تقسیم‌بندی کلمات چینی دست یافته‌اند [ 14 ، 15 ]. در میان آنها، شبکه عصبی واحد بازگشتی دروازه‌ای (GRU) دارای ویژگی‌های ساختار شبکه ساده و فرآیندهای آموزشی آسان است [ 16] .]. بنابراین، با اشاره به مدل تقسیم‌بندی کلمات چینی بر اساس شبکه عصبی، این مقاله روشی برای تقسیم‌بندی عنصر آدرس چینی بر اساس شبکه عصبی دو طرفه GRU (Bi-GRU) پیشنهاد می‌کند. این روش ابتدا تقسیم بندی کلمات چینی را بر روی توالی آدرس ورودی چینی انجام می دهد. دوم اینکه کلمه بردار ویژگی از طریق بردارسازی متن به عنوان ورودی شبکه عصبی تولید می شود. سپس، هر بردار ویژگی برچسب از طریق شبکه عصبی تولید می شود. در نهایت، الگوریتم Viterbi برای استنتاج برچسب و تقسیم بندی کلمات استفاده می شود. این مطالعه پشتیبانی اساسی برای تبدیل اطلاعات مکانی و اطلاعات غیر مکانی و استفاده از خدمات مبتنی بر مکان را فراهم می کند. در عین حال، این مطالعه یک ایده جدید و یک روش جدید برای بخش بندی عناصر آدرس ارائه می دهد.
بقیه این مقاله به شرح زیر سازماندهی شده است: بخش 2 کار مرتبط را مرور می کند و شبکه عصبی واحد بازگشتی دروازه ای (GRU)، تقسیم بندی کلمات Jieba و عناصر آدرس چینی را معرفی می کند. بخش 3 مدل تقسیم بندی و فرآیند تقسیم بندی عناصر آدرس چینی را معرفی می کند. بخش 4 داده های تجربی، معیارهای ارزیابی و نتایج تجربی را معرفی می کند. بخش 5 نتایج تجربی را مورد بحث قرار می دهد و مسائل مرتبط را توضیح می دهد. بخش 6 با خلاصه ای از این مقاله به پایان می رسد و جهت تحقیق بعدی را معرفی می کند.

2. آثار مرتبط

2.1. آثار قبلی

تقسیم بندی عناصر آدرس چینی یکی از کاربردهای تقسیم بندی کلمات چینی در آدرس های نام مکان است. با این حال، از آنجایی که عبارات چینی مرزهای کلمه واضحی ندارند، تقسیم بندی کلمات چینی به آسانی تقسیم بندی کلمات انگلیسی و اسپانیایی نیست [ 17 ]. دوم، چینی، مانند سایر زبان‌ها، به دلیل زمینه‌های مختلف، مشکل چندمعنی را مطرح می‌کند، که تقسیم‌بندی کلمات چینی را دشوارتر می‌کند. با توسعه مداوم فن آوری پردازش زبان طبیعی، پیشرفت های قابل توجهی در فناوری تقسیم بندی کلمات چینی ایجاد شده است. در حال حاضر، متداول ترین روش های تقسیم بندی کلمات چینی به شرح زیر است:
(1)
روش تطبیق رشته‌ای مبتنی بر فرهنگ لغت، رشته‌هایی را که قرار است با یک کتابخانه فرهنگ لغت تقسیم شوند، یک به یک مطابق با استراتژی خاصی مطابقت می‌دهد. با توجه به جهات مختلف تطبیق رشته ها، استراتژی های تطبیق را می توان به سه نوع تقسیم کرد: تطبیق حداکثر رو به جلو، تطبیق حداکثر معکوس و حداکثر تطبیق دو طرفه. اجرای این روش آسان است، دقت قطعه بندی بالایی دارد و سریع است، بنابراین بیشترین استفاده را دارد. بسیاری از محققان عملکرد تقسیم بندی کلمات این روش را با بهبود ساختار فرهنگ لغت بهبود بخشیده اند. به عنوان مثال، وانگ و همکاران. [ 18] از الگوریتم درخت سه آرایه‌ای دوگانه برای پردازش ترجیحی گره‌ها با گره‌های شاخه بیشتر استفاده کرد تا کارایی جستجوی فرهنگ لغت را بهبود بخشد و فضای ذخیره‌سازی داده‌های لازم را کاهش دهد. لی و همکاران [ 19 ] و مو و همکاران. [ 20 ] از مکانیزم نمایه سازی هش دو کاراکتری برای بهبود دقت تقسیم بندی کلمات و کوتاه کردن زمان تقسیم بندی استفاده کرد. با این حال، روش تطبیق رشته ای مبتنی بر فرهنگ لغت نمی تواند به شناسایی کلمات مبهم و کلمات ثبت نشده بپردازد.
(2)
روش تقسیم بندی کلمه بر اساس قواعد معنایی است. ایده اصلی این روش استفاده از اصول واژه‌سازی، ویژگی‌های بخشی از گفتار و پایگاه‌های اطلاعاتی معنایی برای ساخت قوانین خاص بر اساس معناشناسی است. به عنوان مثال، لی و همکاران. [ 21 ] یک روش تقسیم بندی آدرس چینی را بر اساس ترکیبی از قوانین و آمار پیشنهاد کرد. این روش از روش های آماری برای استخراج اطلاعات آدرس از مجموعه آدرس اصلی استفاده می کند و از روش مبتنی بر قانون برای بخش بندی آدرس های چینی استفاده می کند. ژانگ و همکاران [ 22] یک پایگاه داده ویژگی عنصر آدرس را بر اساس انواع مختلف عناصر آدرس ساخت و تقسیم بندی آدرس چینی را بر اساس پایگاه داده ای از این ویژگی های کاراکتر انجام داد. مزیت این روش این است که به شدت با انواع خاصی از کلمات مرتبط است و دقت قطعه بندی بالایی دارد. با این حال، برچسب گذاری مصنوعی و استخراج ویژگی مورد نیاز است و برخی مشکلات مانند ویژگی های پراکنده و سازگاری ضعیف وجود دارد.
(3)
روش تقسیم بندی کلمات بر اساس یادگیری ماشینی مرسوم است. ایده اصلی این روش آموزش مدلی در برچسب گذاری کاراکترها و در نظر گرفتن فراوانی و اطلاعات متنی کلمات است. بنابراین، این روش توانایی یادگیری مطلوبی را ارائه می دهد و در تشخیص کلمات مبهم و کلمات ثبت نشده عملکرد خوبی دارد. از جمله مدل های رایج استفاده شده می توان به مدل حداکثر آنتروپی [ 23 ، 24 ]، مدل مارکوف پنهان (HMM) [ 25 ، 26 ] و مدل میدان تصادفی شرطی (CRF) [ 27 ، 28] اشاره کرد.]. سه مدل بالا برای آموزش به مقادیر زیادی داده برچسب‌گذاری مصنوعی نیاز دارند و به راحتی تحت تأثیر انتخاب ویژگی دستی قرار می‌گیرند.
(4)
روش تقسیم بندی کلمه بر اساس یک شبکه عصبی است. ایده اصلی شبیه سازی عملکرد مغز انسان، توزیع پردازش و ایجاد یک مدل محاسبه عددی است. این فرآیند روش ضمنی را برای درک تقسیم‌بندی کلمات در شبکه عصبی ذخیره می‌کند و از طریق خودآموزی و آموزش وزن‌های داخلی، به نتیجه تقسیم‌بندی صحیح کلمات دست می‌یابد. شبکه عصبی می تواند به طور خودکار ویژگی ها را بیاموزد و از محدودیت های استخراج ویژگی های دستی معمولی اجتناب کند. به عنوان مثال، چن و همکاران. [ 29 ] از یک شبکه عصبی حافظه کوتاه مدت (LSTM) استفاده کرد، زیرا یک شبکه عصبی عمومی نمی تواند روابط وابستگی از راه دور را یاد بگیرد. چن و همکاران [ 30] یک شبکه عصبی بازگشتی دروازه‌ای (GRNN) پیشنهاد کرد که ویژگی‌های پیچیده شخصیت‌های متنی و یک روش آموزش لایه‌ای نظارت شده را برای دستیابی به یک مدل تقسیم‌بندی کلمات بهتر ترکیب می‌کند.
تمام روش‌های تقسیم‌بندی کلمات چینی بالا یا روش‌های تقسیم‌بندی عنصر آدرس چینی، یک کاراکتر را به عنوان حداقل واحد تقسیم‌بندی می‌گیرند. آنها توالی کاراکترها را به دنباله های کلمه یا عناصر آدرس را مطابق با مشخصات خاص ترکیب می کنند. از آنجایی که نویسه‌های چینی نشان‌دهنده کوچک‌ترین واحد معنایی است که کلمات چینی را تشکیل می‌دهد، تقسیم‌بندی کلمات چینی تنها می‌تواند بر اساس کاراکترها به عنوان کوچک‌ترین واحد تقسیم‌بندی باشد [ 31]]. این همچنین باعث می شود که روش تقسیم بندی کلمات چینی بر اساس شبکه عصبی از کاراکترها به عنوان ورودی مدل استفاده کند. با این حال، عناصر آدرس چینی با کلمات چینی که معمولا از یک یا چند کلمه تشکیل شده اند، متفاوت است. به عنوان مثال، اگر از “莲花池 (Lianhuachi)” و “西路 (West Road)” برای نمایش مستقیم عناصر آدرس استفاده کنیم، معنای عملی از بین می رود. تنها ترکیبی از دو کلمه یک عنصر آدرس کامل را تشکیل می دهد. این کلمات که عناصر آدرس را تشکیل می دهند، دقیقاً دنباله کلماتی هستند که توسط تقسیم بندی کلمات چینی ایجاد می شوند. بنابراین، بر اساس تقسیم‌بندی کلمات چینی، این مقاله روشی برای تقسیم‌بندی عنصر آدرس چینی بر اساس یک شبکه عصبی Bi-GRU پیشنهاد می‌کند.

2.2. شبکه عصبی GRU

RNN نوعی شبکه عصبی با عملکرد حافظه است که برای مدل‌سازی داده‌های توالی مناسب است. با این حال، RNN های کلاسیک مسائل انفجار گرادیان و ناپدید شدن گرادیان را تجربه می کنند و این الگوریتم ها نمی توانند مشکلات وابستگی در فواصل طولانی را مدیریت کنند. به همین دلیل، در سال 1997، هوکرایتر و همکاران. [ 32 ] یک شبکه عصبی LSTM، یک RNN ویژه که در توالی های طولانی تر عملکرد بهتری دارد، پیشنهاد کرد. چائو و همکاران [ 33] شبکه عصبی GRU را بر اساس شبکه های عصبی LSTM پیشنهاد کرد. آنها دروازه فراموشی و گیت ورودی را در یک شبکه عصبی LSTM در یک «دروازه به‌روزرسانی» ترکیب کردند و حالت سلولی و حالت پنهان را ترکیب کردند. شبکه عصبی GRU یک ساختار شبکه دایره ای است که اطلاعات خروجی جاری را از طریق اطلاعات ورودی در لحظه جاری و اطلاعات خروجی در لحظه قبلی را تعیین می کند. بنابراین، اطلاعات خروجی در هر لحظه در شبکه عصبی GRU به اطلاعات گذشته بستگی دارد. بنابراین، ویژگی زنجیره ای آن ارتباط نزدیکی با مسئله برچسب گذاری متوالی دارد و برای وظیفه تقسیم بندی کلمات چینی اعمال می شود.
یک شبکه عصبی GRU دارای دو گیت کنترل، یک گیت تنظیم مجدد و یک گیت به روز رسانی است، همانطور که در شکل 1 نشان داده شده است.. گیت تنظیم مجدد تعیین می کند که چه مقدار اطلاعات باید در حالت پنهان لحظه قبل فراموش شود. هنگامی که مقدار گیت تنظیم مجدد به 0 نزدیک شود، اطلاعات لحظه قبلی فراموش می شود. هنگامی که مقدار به 1 نزدیکتر است، اطلاعات پنهان لحظه قبلی در اطلاعات حافظه فعلی حفظ می شود. گیت به روز رسانی تعیین می کند که چه مقدار اطلاعات در حالت پنهان در لحظه قبل به حالت پنهان فعلی آورده می شود. هنگامی که مقدار گیت به روز رسانی به 0 نزدیکتر است، اطلاعات در حالت پنهان در لحظه قبل فراموش می شود. هنگامی که مقدار به 1 نزدیکتر است، اطلاعات در حالت پنهان فعلی حفظ می شود.

در شکل 1 ، zتیدروازه به روز رسانی است، rتیدروازه تنظیم مجدد است، ساعت˜تیحالت مخفی نامزد گره پنهان فعلی است، ساعتتیحالت پنهان فعلی است، ایکستیورودی شبکه عصبی فعلی است و ساعتتی-1حالت پنهان در لحظه قبل است. فرمول محاسبه دقیق به شرح زیر است:

zتی=σwzایکسایکستی+توzساعتساعتتی-1
rتی=σwrایکسایکستی+توrساعتساعتتی-1
ساعت˜تی=برنزهwساعتایکسایکستی+rتی⊙توساعتساعتساعتتی-1
ساعتتی=1-zتی⊙ساعت˜+zتی⊙ساعتتی-1

جایی که σتابع فعال سازی است سمنgمترoمند، که از 0 تا 1 متغیر است، ⊙حاصلضرب هادامارد ماتریس است، wو توماتریس های وزنی هستند که باید یاد بگیرند و zتیو rتیمحدوده از 0 تا 1. در بخش بندی عنصر آدرس چینی، گیت تنظیم مجدد عمل می کند ساعتتی-1برای ثبت تمام اطلاعات مهم که به عنوان محتوای حافظه نیز شناخته می شود. همانطور که در فرمول (3) نشان داده شده است، دروازه تنظیم مجدد از بردارهایی از 0 تا 1 تشکیل شده است. بنابراین، پس از به دست آمدن محصول هادامارد، گیت تنظیم مجدد تعیین می کند که چه مقدار از حالت پنهان در زمان قبلی باید در حافظه فعلی فراموش شود. محتوا. سپس اطلاعات ورودی فعلی اضافه شده و در عملکرد فعال سازی قرار می گیرد. از این رو، ساعت˜تیتمام اطلاعات مهم را از طریق گیت تنظیم مجدد و اطلاعات ورودی ثبت می کند. گیت به روز رسانی وضعیت پنهان فعلی را تعیین می کند ساعتتیبا عمل کردن ساعتتی-1و ساعت˜تیو آن را به واحد بعدی منتقل می کند. همانطور که در فرمول (4)، اولین ترم از طریق نشان داده شده است 1-zتیتعیین می کند که چه اطلاعاتی باید فراموش شوند و اطلاعات مربوطه در محتوای حافظه در این زمان به روز می شود. عبارت دوم فرمول میزان اطلاعات را تعیین می کند ساعتتی-1در حالت پنهان فعلی حفظ می شود. از این رو، ساعتتیتصمیم به جمع آوری اطلاعات مورد نیاز در ساعت˜تیو ساعتتی-1از طریق گیت آپدیت

هر لایه پنهان در شبکه عصبی دارای یک گیت به روز رسانی و گیت ریست جداگانه است. لایه ها بر اساس اطلاعات ورودی فعلی و اطلاعات لحظه قبلی، روابط وابسته متفاوتی ایجاد می کنند.

2.3. تقسیم بندی کلمات Jieba

با توسعه فناوری پردازش زبان طبیعی، ابزارهای تقسیم بندی کلمات چینی به طور فزاینده ای در دسترس قرار گرفته اند. تقسیم بندی کلمات Jieba به دلیل جامعه فعال، سادگی و عملکرد غنی آن به طور گسترده استفاده می شود. این روش با اسکن کردن جمله با یک نقشه کلمات کارآمد بر اساس فرهنگ لغت پیشوند و سپس تولید تمام شکل‌بندی‌های کلمه ممکن در جمله، به تقسیم‌بندی کلمات دست می‌یابد. سپس، یک گراف غیر چرخه ای جهت دار با توجه به موقعیت تقسیم بندی ساخته می شود. سپس از برنامه نویسی پویا برای یافتن مسیر با حداکثر احتمال استفاده می شود و حداکثر ترکیب تقسیم بندی بر اساس فرکانس کلمه پیدا می شود. در نهایت، برای کلمات ثبت نشده، یک HMM بر اساس توانایی حروف چینی برای تشکیل کلمات برای تقسیم بندی استفاده می شود.

2.4. عنصر آدرس چینی

آدرس‌های چینی نیازمند روش‌های کدگذاری انتزاعی با توصیف موقعیت مکانی از طریق سازمان‌دهی مدل‌های زبان طبیعی و بیان آدرس [ 8 ] است. این را می توان به صورت زیر بیان کرد:

آ=ایکسمن∈آ|پایکسمن،ایکسj≠∅،ایکسمن≠ایکسj

جایی که آآدرس چینی است، ایکسمنعنصر آدرس چینی است و پایکسمن،ایکسjرابطه محدودیت مکانی بین عناصر آدرس است و نمی تواند خالی باشد. رابطه محدودیت فضایی به محدودیت توپولوژیکی بین موجودات جغرافیایی مربوط به عناصر آدرس اشاره دارد.

عناصر آدرس چینی، به عنوان کوچکترین واحد معنایی در یک آدرس چینی، یک منطقه یا موجودیت جغرافیایی خاص را توصیف می کنند. با توجه به ساختار آدرس چینی و حالت آدرس، عناصر آدرس را می توان به سه نوع تقسیم کرد. عناصر تقسیم اداری عمدتاً شامل پنج بخش اداری استان، شهرستان، شهرستان (بخش)، شهرستان و روستا (جامعه) است. عناصر آدرس جزئیات می تواند شامل جاده ها، شماره خانه ها، جوامع، شماره ساختمان، شماره واحد و غیره باشد. و عناصر آدرس تکمیلی می تواند شامل نام مؤسسات مختلف یا کلماتی باشد که جهت گیری فضایی را نشان می دهد. هر نوع قواعد واژه‌سازی خاصی دارد که می‌تواند به صورت «کلمات اختصاصی به اضافه کلمات عمومی» بیان شود [ 22]. در میان آنها، کلمات عمومی عبارتند از “کلمات ویژگی” که نشان دهنده سطح یا نوع عناصر آدرس، معمولا در انتهای عناصر آدرس هستند. کلمات اختصاصی بخش باقی مانده از عنصر آدرس پس از حذف کلمات عمومی هستند. به عنوان مثال، “Lianhuachi” در “Lianhuachi West Road” یک کلمه اختصاصی است و “West Road” یک کلمه کلی است. بنابراین، در تقسیم بندی عناصر آدرس چینی، استفاده از کلمات به عنوان کوچکترین واحد تقسیم بندی با قوانین کلمه سازی عناصر آدرس مطابقت دارد. این مقاله “ویژگی کلمات” انواع مختلف عناصر آدرس را از طریق تجزیه و تحلیل آماری تعداد زیادی از داده های آدرس، همانطور که در جدول 1 نشان داده شده است، خلاصه می کند .

3. بخش بندی عناصر آدرس چینی

وظیفه تقسیم بندی کلمات چینی معمولاً یک کار برچسب گذاری دنباله ای در نظر گرفته می شود. این وظیفه از تگ های متناظر برای هر کاراکتر در جملات چینی استفاده می کند و تقسیم بندی کلمات را بر اساس این تگ ها انجام می دهد [ 34 ]. در حال حاضر، مجموعه‌های تگ اصلی در وظایف برچسب‌گذاری ترتیبی، مجموعه‌های دو تگ، مجموعه‌های سه تگ، مجموعه‌های چهار تگ و مجموعه‌های شش تگ هستند، همانطور که در جدول 2 نشان داده شده است .
به طور کلی، هر چه تعداد کاراکترها در مجموعه تگ ها بیشتر باشد، تگ گذاری دقیق تر است. با این حال، کلمات متشکل از پنج یا چند کاراکتر در متون کوتاه مشابه آدرس‌های چینی، کلمات بسیار کمی را تشکیل می‌دهند. کلمات رایج چینی از چهار کاراکتر یا کمتر تشکیل شده اند [ 35 ]. بنابراین، نقش تگ های M1 و M2 در برچسب گذاری مجموعه شش تگ دشوار است و بسیاری از توابع ویژگی غیرضروری تولید می شوند [ 36]]. بنابراین در این مقاله یک مجموعه چهار تگ برای برچسب گذاری عناصر آدرس انتخاب شده است. در این میان، تگ B نشان می دهد که کلمه شروع عنصر آدرس است، تگ M نشان می دهد که کلمه کلمه میانی عنصر آدرس است، تگ E نشان می دهد که کلمه، کلمه پایانی عنصر آدرس است و تگ S نشان می دهد که کلمه یک عنصر آدرس کامل است. علاوه بر این، ماتریس وزن انتقال آو بردار تگ اولیه πبرای نشان دادن بهتر وابستگی بین برچسب ها و مقداردهی اولیه تگ ها استفاده می شود.
در این مقاله، بر اساس مدل شبکه عصبی تقسیم‌بندی کلمه چینی، از شبکه عصبی Bi-GRU برای تقسیم‌بندی عناصر آدرس چینی استفاده شده است. این مدل عمدتاً شامل چهار مرحله زیر است که در شکل 2 نشان داده شده است .
(1)
تقسیم بندی کلمات چینی: توالی آدرس چینی با استفاده از ابزار تقسیم بندی کلمات چینی و ویژگی های عناصر آدرس به چندین کلمه مستقل تقسیم می شود. این کلمات مستقل به عنوان ورودی برای برداری متن استفاده می شود.
(2)
بردار سازی متن: نمایش بردار ویژگی هر کلمه از طریق یک جدول جستجو پیدا می شود و این بردارهای ویژگی به عنوان ورودی شبکه عصبی استفاده می شود.
(3)
شبکه عصبی: شبکه عصبی Bi-GRU برای تولید نمایش ویژگی برچسب هر کلمه و به عنوان ورودی استنتاج برچسب استفاده می شود.
(4)
استنتاج برچسب: الگوریتم Viterbi برای یافتن حداکثر ترکیب برچسب ممکن به عنوان دنباله برچسب نهایی استفاده می شود.

3.1. تقسیم بندی کلمات چینی

علاوه بر حروف چینی در آدرس‌های چینی، برخی از نویسه‌های غیر چینی مانند اعداد، حروف انگلیسی و کاراکترهای خاص اغلب ظاهر می‌شوند. بنابراین، بر اساس تقسیم بندی کلمات Jieba، درمان های زیر برای این شخصیت ها انجام می شود:
(1)
اعداد عموماً اطلاعاتی مانند شماره خانه، شماره ساختمان، شماره واحد، شماره طبقه و شماره اتاق را نشان می دهند. روش پردازش عدد را با پیشوند و پسوند ترکیب می‌کند تا آن را به یک کلمه تغییر دهد، مانند “甲2号 (شماره 2 A)” در “前门大街甲2号 (شماره 2 خیابان کیانمن)” به عنوان یک کلمه. .
(2)
حروف انگلیسی به طور کلی با پیشوندها و پسوندها ترکیب می شوند تا یک موجود جغرافیایی خاص را نشان دهند، مانند “望京SOHO中心 (مرکز Wangjing SOHO)”. روش پردازش تمام حروف انگلیسی مجاور را در یک کلمه ترکیب می کند.
(3)
کاراکترهای ویژه معمولاً به عنوان اطلاعات توصیفی اضافی یا برخی اطلاعات پیش فرض بیان می شوند. در “东城区天坛路1号(天坛公园北门) (شماره 1 جاده تیانتان، منطقه دونگ چنگ (دروازه شمالی معبد پارک بهشت))، اطلاعات داخل پرانتز شرح اضافی اطلاعات آدرس قبلی است. . در روش پردازش، برای کاراکترهای خاصی که اطلاعات براکتی دارند، براکت ها و اطلاعات داخل آن حذف می شوند و نمادهای خاص غیر از براکت ها به عنوان کلمه در نظر گرفته می شوند.

3.2. بردار سازی متن

تقسیم بندی کلمات مدل شبکه عصبی ابتدا به یک بردار ویژگی با یک بعد خاص برای نمایش کاراکترها نیاز دارد. این بردار ویژگی می تواند ارتباط معنایی بین کاراکترها را توصیف کند و به عنوان یک ویژگی کاراکتر به ورودی شبکه عصبی تبدیل می شود. ما تقسیم بندی کلمات چینی را در تمام آدرس های مجموعه داده آموزشی انجام می دهیم و یک فرهنگ لغت ایجاد می کنیم Dاز اندازه D. سپس، ما از نمایش رمزگذار دو طرفه از مدل ترانسفورماتور (BERT) [ 37 ] برای هر کلمه استفاده می کنیم.ج∈Dبرای تولید بردار ویژگی مربوطه Vج∈آرد، جایی که دبعد بردار ویژگی است (هیپرپارامترهایی که باید تنظیم کنیم). سپس، بردارهای ویژگی همه کلمات را در یک ماتریس جاسازی قرار می دهیم م∈آرد×D.
به طور رسمی، با فرض یک توالی کلمه معین ج1،n، برای هر کلمه جمن1≤من≤nبا یک شاخص مرتبط در ماتریس تعبیه، بردار ویژگی مربوطه Vج∈آردرا می توان از طریق یک جدول جستجو بازیابی کرد. لایه برداری متن در مدل را می توان به عنوان یک لایه طرح ریزی ساده در نظر گرفت، جایی که نمایش بردار ویژگی هر کلمه را می توان از طریق فهرست آن در جدول جستجو بازیابی کرد.

3.3. شبکه عصبی Bi-GRU

شبکه عصبی Bi-GRU یک شبکه عصبی GRU است که با ساختار دو لایه تقویت شده است. این ساختار دو لایه اطلاعات متنی کامل اطلاعات ورودی را در هر لحظه به لایه خروجی می دهد. ایده اصلی شبکه عصبی Bi-GRU این است که دنباله ورودی از یک شبکه عصبی رو به جلو و یک شبکه عصبی عقب عبور داده می شود و سپس خروجی های این دو در یک لایه خروجی به هم متصل می شوند. شکل 3 شبکه عصبی Bi-GRU دو لایه ای را نشان می دهد که در این مقاله به صورت بسط سری زمانی استفاده شده است.

از جمله، در شبکه عصبی Bi-GRU هر لایه، لایه جلو خروجی لایه پنهان را در هر زمان از جلو به عقب محاسبه می کند و لایه عقب خروجی لایه پنهان را در هر زمان از عقب به جلو محاسبه می کند. . لایه خروجی نتایج خروجی لایه رو به جلو و لایه عقب را در هر لحظه روی هم قرار داده و عادی می کند:

ساعتتی1→=fwایکسساعت1→ایکستی+wساعت1→ساعت1→ساعتتی-11→+بساعت1→
ساعتتی1←=fwایکسساعت1←ایکستی+wساعت1←ساعت1←ساعتتی+11←+بساعت1←
ساعتتی2→=fwساعت1→ساعت2→ساعتتی1→+wساعت2→ساعت2→ساعتتی-12→+بساعت2→
ساعتتی2←=fwساعت1←ساعت2←ساعتتی1←+wساعت2←ساعت2←ساعتتی+12←+بساعت2←
yتی=gwساعت2→yساعتتی2→+wساعت2←yساعتتی2←+بy

جایی که ساعتتی1→∈آراچو ساعتتی2→∈آراچبردارهای خروجی لایه پنهان لایه جلویی در لایه های اول و دوم شبکه عصبی Bi-GRU در زمان t هستند، اچتعداد واحدها در سلول GRU است، ساعتتی1←∈آراچو ساعتتی2←∈آراچبردارهای خروجی لایه پنهان لایه عقب در لایه های اول و دوم شبکه های عصبی Bi-GRU در زمان t هستند، yتی∈آرتیامتیاز کلمه مربوطه در هر برچسب در زمان t است، تیتعداد برچسب ها است، ایکستیورودی شبکه عصبی در زمان t است، f⋅پردازش شبکه عصبی GRU است، g⋅تابع فعال سازی است، که در آن gایکسمن=هایکسمن∑ک=1nهایکسک، و wو بماتریس های وزنی هستند که باید یاد بگیرند.

3.4. استنتاج برچسب

استنتاج تگ بر اساس امتیاز برچسب و ماتریس انتقال برچسب برای یافتن محتمل‌ترین گروه از همه دنباله‌های ترکیب برچسب است. از آنجایی که هزینه جستجوی جامع بسیار زیاد است، ما از تفکر مبتنی بر ویتربی برای جستجو استفاده می کنیم. ما محتمل ترین ترکیب دنباله را با محاسبه احتمال بهینه محلی و عقب نشینی نشانگر به عقب پیدا می کنیم.
برای یک دنباله ورودی ج1،nمدل شبکه عصبی تعریف شده در زمان تی1≤تی≤n، احتمال بهینه محلی برچسب مناست δتیمن، و اشاره گر به عقب است φتیمن. فرمول محاسبه به شرح زیر است:

چه زمانی تی=1:

δتیمن=πمن+y1،من

چه زمانی 1<تی≤n:

δتیمن=حداکثرjδتی-1j+آjمن+yتی،من
φتیمن=argmaxjδتی-1j+آjمن

جایی که πمناحتمال آن برچسب است مناولین تگ دنباله است، آjمناحتمال انتقال آن برچسب است jبه برچسب منتقل می کند من، جایی که هر چه مقدار آن بزرگتر باشد آjمنیعنی احتمال آن تگ بیشتر است jبه برچسب منتقل می کند من، و yتی،مننمره کلمه است جتیروی برچسب مندر زمان تی. φتیمنبه یک برچسب خاص اشاره می کند jدر زمان قبلی که تگ بهینه را ایجاد کرد مندر زمان تی.

از این طریق می توان مسیر بهینه تا زمان فعلی را تعیین کرد و اشاره گر را نشان داد. بنابراین، برچسب نهایی منتیدر زمان تیمی توان از احتمال بهینه محلی در آن زمان استنباط کرد n. فرمول استخراج به شرح زیر است:

منتی=argmaxδتیمنتی=nφتی+1منتی+11≤تی<n

4. آزمایشات

پارامترهای اصلی محیط آزمایشی به شرح زیر است: CPU یک پردازنده Intel(R) Xeon(R) E5-1620 v4 @ 3.50 گیگاهرتز با 16 گیگابایت حافظه است، چارچوب یادگیری عمیق TensorFlow 1.2.1، زبان توسعه است. پایتون 3.6 است، ابزار تقسیم‌بندی کلمات چینی حالت دقیق در ابزار تقسیم‌بندی کلمات Jieba است، و ابزار برداری متن، سرویس BERT bert-as-service است که توسط Tencent AI Lab ارائه می‌شود.
آزمایش در این مقاله عمدتاً به دو گروه تقسیم می شود. گروه اول از تک کاراکترها به عنوان ورودی شبکه عصبی استفاده می کنند. گروه دوم از کلمات به عنوان ورودی شبکه عصبی استفاده می کنند. ما تفاوت‌های بین عملکرد بخش‌بندی و کارایی چهار شبکه عصبی را مقایسه می‌کنیم: Bi-GRU، Bi-LSTM [ 14 ]، GRU [ 15 ] و LSTM [ 29 ].

4.1. مجموعه داده ها

مجموعه داده های آزمایشی مورد استفاده در این مقاله با استفاده از فناوری خزنده وب برای به دست آوردن داده های نقطه مورد علاقه (POI) و بخشی از داده های فهرست راهنمای نقشه Baidu (https://map.baidu.com) از پکن، چین به دست آمده است . . داده های POI پس از به دست آمدن، پیش پردازش شدند. ابتدا داده‌های POI آدرس‌های مکرر و آدرس‌های غیر چینی را حذف کردیم و سپس بخش‌بندی عناصر آدرس دستی را روی آدرس‌های موجود در داده‌های POI انجام دادیم، همانطور که در جدول 3 و جدول 4 نشان داده شده است.. در مجموع 189305 قطعه داده نمونه در نهایت تولید شد (تقریباً 1.34٪ از آدرس ها حاوی عناصر آدرس غلط املایی بودند). در این میان، 80 درصد داده‌ها به‌عنوان داده‌های آموزشی مدل (20 درصد از داده‌های آموزشی برای داده‌های اعتبارسنجی متقابل در تنظیمات فراپارامتر) و 20 درصد از داده‌ها به عنوان داده‌های آزمایش مدل استفاده شد.
در مورد داده‌های فهرست، از کلمات کلیدی مانند جاده‌ها، مناطق مسکونی، ساختمان‌های اداری، پارک‌ها و مدارس برای به‌دست آوردن اطلاعات فهرست راه‌ها، مناطق مسکونی، ساختمان‌های اداری، پارک‌ها و مدارس از نقشه بایدو پکن استفاده کردیم. هر رکورد در داده های دایرکتوری مربوط به یک عنصر آدرس در آدرس های چینی است. بنابراین، تقسیم بندی دستی مورد نیاز نیست، و اطلاعات می تواند به طور مستقیم به عنوان یک نمونه آموزشی برای مدل استفاده شود. علاوه بر این، تقسیم اداری یک عنصر آدرس ضروری در هر آدرس است و این عنصر نسبتاً پایدار است و اغلب تغییر نمی کند. بنابراین، هر بخش اداری پکن می تواند به عنوان یک نمونه آموزشی تکمیلی نیز مورد استفاده قرار گیرد. داده های دایرکتوری بالا و داده های تقسیم اداری در مجموع 28262 است.

4.2. معیارهای ارزیابی

برای معیارهای ارزیابی تجربی، از روش ارزیابی طبقه‌بندی یادگیری ماشین استفاده می‌شود. این روش از سه شاخص دقت (P)، فراخوان (R) و امتیاز F1 (F1) برای ارزیابی نتایج تقسیم‌بندی استفاده می‌کند. دقت به نسبت عناصر آدرس به درستی تقسیم‌بندی شده با توجه به تمام عناصر آدرس تقسیم‌بندی شده، فراخوان به نسبت عناصر آدرس به درستی تقسیم‌بندی شده به تمام عناصر آدرس استاندارد، و امتیاز F1 به میانگین وزنی هارمونیک دقت اشاره دارد. و به یاد آورید. فرمول محاسبه هر شاخص به شرح زیر است:

پ=آ∩بب
آر=آ∩بآ
اف1=2پ∗آرپ+آر

جایی که آمجموعه استاندارد عناصر آدرس است و بمجموعه قطعه بندی شده از عناصر آدرس است.

4.3. فراپارامترها

برای به دست آوردن عملکرد مطلوب از یک شبکه عصبی، تنظیم فراپارامترها بسیار مهم است. هایپرپارامترهای اصلی این آزمایش در جدول 5 نشان داده شده است . در لایه برداری متن مدل، اندازه پنجره تعداد کاراکترهای موجود در طولانی ترین آدرس در مجموعه داده های آدرس است. کلمه بعد برداری یک بعد تعبیه کاراکتر رایج است [ 38 ، 39 ]. در لایه شبکه عصبی، تعداد واحدهای پنهان و تعداد لایه های شبکه عصبی نشان دهنده سازش بین سرعت آموزش مدل و عملکرد مدل است [ 40]]. نرخ ترک تحصیل و اندازه دسته از طریق آزمایش های مقایسه ای برای تعیین مقدار بهینه انتخاب می شوند. در لایه استنتاج برچسب، پس از به دست آوردن آمار برچسب برای مجموعه داده آموزش کاراکتر و مجموعه داده آموزش کلمه، ماتریس انتقال برچسب آو بردار اولیه سازی برداری πهمانطور که در معادلات (18) و (19) نشان داده شده است، به دست می آیند.

آ1=ب م E اس00.900.10000.400.6000.96000.041000بمEاسπ1=1000بمEاس
آ2=ب م E اس00.230.77000.230.7700.71000.290.48000.52بمEاسπ2=0001بمEاس

جایی که آ1و π1هنگامی که کاراکترهای منفرد ورودی هستند، ماتریس انتقال برچسب و بردار اولیه هستند. آ2و π2هنگامی که کلمات ورودی هستند، ماتریس انتقال برچسب و بردار مقداردهی اولیه هستند.

نرخ انصراف برای جلوگیری از برازش بیش از حد با دور انداختن برخی از گره های لایه پنهان در شبکه در نظر گرفته شده است [ 41 ]. از شکل 4 ، می بینیم که در طول آموزش مدل شبکه، مقدار F1 هر شبکه عصبی با افزایش نرخ ترک تحصیل افزایش می یابد. سرعت همگرایی مدل شبکه با افزایش نرخ ترک تحصیل سریعتر است. برای تأیید اثر بیش‌برازش هر نرخ ترک تحصیل، مدل را در طول فرآیند آموزش اعتبارسنجی متقابل می‌کنیم و نتایج به‌دست‌آمده در جدول 6 نشان داده شده است . جدول 6نشان می دهد که وقتی نرخ انصراف تنظیم نشده باشد – یعنی زمانی که نرخ انصراف 1 است – هر شبکه عصبی به کمترین مقدار F1 خود در مجموعه آزمایشی می رسد. هنگامی که نرخ انصراف 0.7 باشد، هر شبکه عصبی به بهترین مقدار F1 خود در مجموعه آزمایشی دست می یابد: یعنی اثر اضافه برازش بهترین است. به طور خلاصه، نرخ ترک تحصیل از آزمایش متنی 0.7 تنظیم شده است.
اندازه دسته ای تعداد نمونه های انتخاب شده برای یک تکرار آموزش شبکه عصبی است و اندازه آن بر بهینه سازی و سرعت مدل تاثیر می گذارد. از شکل 5، می بینیم که وقتی اندازه های دسته ای 500 و 1000 باشد، سرعت همگرایی هر مدل شبکه سریع ترین است. با این حال، خطای آموزشی مدل زیاد است و نوسانات بزرگ هستند. وقتی اندازه دسته 3000 باشد، خطای آموزش مدل شبکه کاهش می یابد. با این حال، یک وضعیت بهینه محلی در طول فرآیند تمرین رخ می دهد و شاخص F1 در پایان هر دور تمرین به اوج خود می رسد. هنگامی که اندازه دسته 2000 است، اگرچه سرعت همگرایی کمتر از اندازه دسته 500 و 1000 است، جهت فرود دقیق است، نوسانات کوچک هستند، خطای تمرین کمتر می شود و بهینه محلی وجود ندارد. بنابراین، اندازه دسته ای آزمایش متن روی 2000 تنظیم شده است.
از همین پارامترها برای شبکه های عصبی Bi-GRU، Bi-LSTM، CRF و LSTM استفاده می شود تا بتوان سرعت آموزش و عملکرد چهار مدل را با هم مقایسه کرد.

4.4. نتایج

از طریق آزمایش‌ها، نتایج تقسیم‌بندی عناصر آدرس و زمان‌های آموزش شبکه‌های عصبی Bi-GRU، Bi-LSTM، GRU و LSTM برای ورودی‌های مختلف در جدول 7 و جدول 8 نشان داده شده است . همانطور که در شکل 6 نشان داده شده است، شاخص های تقسیم بندی تمام شبکه های عصبی را با هم مقایسه می کنیم .
  • ورودی تک کاراکتری
از جدول 7 ، می بینیم که در بین مدل های شبکه با ورودی تک کاراکتری، دقت تقسیم بندی بر اساس شبکه عصبی Bi-GRU با 97.81% بالاترین میزان است. فراخوان بخش‌بندی و امتیاز F1 بر اساس شبکه عصبی Bi-LSTM به ترتیب با 97.88% و 97.78% بالاترین میزان را دارند. با این حال، تفاوت بین امتیازات F1 دو شبکه عصبی دو طرفه تنها 0.03٪ است، بنابراین عملکرد تقسیم‌بندی این دو را می‌توان تقریباً یکسان در نظر گرفت. نمرات بخش بندی F1 شبکه های عصبی GRU و LSTM هر دو کمتر از 89٪، فقط 88.40٪ و 88.56٪ هستند. همانطور که از شکل 6 مشاهده می شود، شاخص های تقسیم بندی مبتنی بر شبکه عصبی یک طرفه GRU و LSTM کمتر از شاخص های مبتنی بر شبکه عصبی دو طرفه Bi-GRU و Bi-LSTM است.
از بازده تقسیم بندی در جدول 8 ، می توانیم ببینیم که از مدل های شبکه با ورودی تک کاراکتری، شبکه عصبی Bi-GRU به طور متوسط ​​در هر دور آموزش 8.70٪ سریعتر از شبکه عصبی Bi-LSTM است. با توجه به 30 دور آموزش در این مقاله، شبکه عصبی Bi-GRU تقریبا 22 دقیقه سریعتر از شبکه عصبی Bi-LSTM است. شبکه عصبی GRU به طور متوسط ​​8.55٪ سریعتر از شبکه عصبی LSTM در هر دور آموزش است. شبکه های عصبی یک طرفه GRU و LSTM تقریباً دو برابر سریعتر از شبکه های عصبی دو طرفه Bi-GRU و Bi-LSTM به طور متوسط ​​در هر دور آموزش هستند.
  • ورودی کلمه
جدول 7 نشان می‌دهد که از مدل‌های شبکه با ورودی کلمه، دقت و امتیاز F1 بر اساس شبکه عصبی Bi-GRU به ترتیب با 99.22% و 99.16% بالاترین میزان را دارند. فراخوان بخش بندی بر اساس شبکه عصبی Bi-LSTM با 99.11 درصد بالاترین میزان است. به طور مشابه، تفاوت امتیاز F1 دو شبکه عصبی دو طرفه تنها 0.04٪ است، بنابراین عملکرد تقسیم‌بندی این دو را می‌توان تقریباً یکسان در نظر گرفت. شاخص های تقسیم بندی بر اساس شبکه های عصبی GRU و LSTM بیش از 90٪ است که در این میان، F1 به ترتیب به 93.22٪ و 92.94٪ رسیده است. با این حال، از شکل 6 می توان دریافت که شاخص های تقسیم بندی آنها هنوز از شبکه های عصبی دو طرفه Bi-GRU و Bi-LSTM پایین تر است.
از بازده تقسیم بندی در جدول 8 ، می بینیم که از مدل های شبکه با ورودی کلمه، شبکه عصبی Bi-GRU به طور متوسط ​​8.83٪ سریعتر از شبکه عصبی Bi-LSTM در هر دور آموزش است. شبکه عصبی GRU به طور متوسط ​​8.52٪ سریعتر از شبکه عصبی LSTM در هر دور آموزش است. به طور مشابه، شبکه های عصبی یک طرفه GRU و LSTM به طور متوسط ​​بسیار سریعتر از شبکه های عصبی دو طرفه Bi-GRU و Bi-LSTM در هر دور آموزش هستند.
  • مقایسه
از نظر عملکرد بخش‌بندی، مدل‌های شبکه با ورودی کلمه در شاخص‌های مختلف تقسیم‌بندی در مقایسه با مدل‌های شبکه با ورودی تک کاراکتری عملکرد بهتری دارند. مقادیر دقت شبکه های عصبی Bi-GRU، Bi-LSTM، GRU و LSTM به ترتیب 1.41، 1.45، 3.47 درصد و 3.34 درصد افزایش می یابد. مقادیر فراخوان به ترتیب 1.41٪، 1.23٪، 6.06٪ و 5.36٪ افزایش می یابد. امتیازات F1 به ترتیب 1.41٪، 1.34٪، 4.83٪ و 4.39٪ افزایش می یابد.
از نظر بازده تقسیم بندی، دو مدل ورودی تقریباً یکسان هستند. در میان آنها، شبکه عصبی Bi-LSTM بیشترین تفاوت را در میانگین زمان تمرین در هر دور ایجاد می کند که تنها پنج ثانیه است. شبکه عصبی Bi-GRU چهار ثانیه اختلاف ایجاد می کند. شبکه‌های عصبی LSTM و GRU هر دو اختلاف یک ثانیه را ایجاد می‌کنند. بنابراین، مدل‌های شبکه با ورودی‌های تک کاراکتری و مدل‌های شبکه با ورودی‌های کلمه، کارایی تقسیم‌بندی تقریباً معادل را ارائه می‌دهند.

5. بحث

5.1. تجزیه و تحلیل نتایج تجربی

از نتایج تجربی فوق، نتایج زیر را فرموله کردیم:
(1)
صرف نظر از اینکه مدل های شبکه از ورودی تک کاراکتری یا ورودی کلمه استفاده می کنند، شبکه های عصبی دو طرفه Bi-GRU و Bi-LSTM عملکرد بخش بندی بهتری نسبت به شبکه های عصبی یک طرفه GRU و LSTM ارائه می دهند، زیرا یک شبکه عصبی دو طرفه می تواند حالت را قبل از و بعد از هر لحظه به ترتیب از جهت جلو و عقب. بنابراین این نوع شبکه بهتر می تواند اطلاعات گذشته و اطلاعات آینده دنباله آدرس را در نظر بگیرد.
(2)
مدل‌های شبکه با ورودی کلمه چهار نوع شبکه عصبی فوق، عملکرد بخش‌بندی بهتری را نسبت به مدل‌های شبکه مربوطه با ورودی‌های تک کاراکتری نشان می‌دهند. عناصر آدرس چینی از کلمات تشکیل شده اند و نتایج تقسیم بندی کلمات چینی هستند. بنابراین، استفاده از کلمات به عنوان ورودی مدل شبکه عصبی با قوانین کلمه‌سازی عناصر آدرس چینی مطابقت دارد.
(3)
در مورد عملکرد تقسیم‌بندی یکسان، شبکه عصبی Bi-GRU از نظر بازده قطعه‌بندی سریع‌تر از شبکه عصبی Bi-LSTM است، زیرا واحد عصبی Bi-GRU مستقیماً حالت پنهان را به واحد عصبی بعدی منتقل می‌کند، در حالی که Bi- واحد عصبی LSTM باید از حالت سلول حافظه برای بسته بندی حالت پنهان و انتقال آن به واحد عصبی بعدی استفاده کند. علاوه بر این، هنگام محاسبه مقدار حالت پنهان فعلی، واحد عصبی Bi-GRU باید علاوه بر ورودی فعلی، تنها مقدار یک پارامتر را در زمان قبلی خروجی دهد، در حالی که واحد عصبی Bi-LSTM به دو پارامتر، سلول حافظه نیاز دارد. مقدار حالت، و مقدار خروجی گره پنهان در لحظه قبل.
(4)
مدل‌های شبکه با ورودی‌های کلمه چهار نوع شبکه عصبی فوق عملکرد بخش‌بندی بهتر و کارایی تقسیم‌بندی مشابه مدل‌های شبکه مربوطه با ورودی‌های تک کاراکتری دارند، زیرا صرف نظر از اینکه از ورودی تک‌نویسه یا ورودی کلمه استفاده می‌شود، محاسبه در شبکه عصبی یک بردار ویژگی است که پس از بردارسازی متن ایجاد می شود. بنابراین، ابعاد بردار بر کارایی تقسیم بندی تأثیر می گذارد، نه کاراکترها و کلمات ورودی.

5.2. مسائل بخش بندی

اگرچه روش در این مقاله به نتایج تقسیم‌بندی خوبی در آزمایش دست یافت، برخی از مشکلات بخش‌بندی هنوز وجود دارد. دو دلیل اصلی برای این مشکلات وجود دارد: کوچکترین واحد تقسیم بندی و آدرس خطاهای املایی. اولی تقریباً 35.2٪ از تمام آدرس‌های تقسیم‌بندی نادرست را به خود اختصاص داده است و دومی تقریباً 52.6٪ را به خود اختصاص داده است. 12.2 درصد باقیمانده از مشکلات به دلایل زیادی از جمله شخصیت های خاص، اندازه نمونه کوچک و خطای انسانی تولید نمونه های اشتباه نسبت داده شد.
روش تقسیم بندی عناصر آدرس چینی ارائه شده در این مقاله بر اساس نتایج تقسیم بندی کلمات چینی است و از کلمات به عنوان کوچکترین واحد تقسیم بندی استفاده می کند. بنابراین، نتایج تقسیم‌بندی کلمه چینی مستقیماً بر دقت بخش‌بندی عنصر آدرس تأثیر می‌گذارد. ابزارهای تقسیم‌بندی کلمات چینی که معمولاً مورد استفاده قرار می‌گیرند، بر اساس اصل “تشکیل کلمه چینی” هستند و تقسیم‌بندی عناصر آدرس را می‌توان به عنوان ترکیب مجدد دنباله‌های کلمات در نظر گرفت. بنابراین، نتیجه تقسیم بندی کلمات چینی، کلمه موجود در عنصر آدرس نیست. به عنوان مثال، نتیجه تقسیم بندی کلمه چینی “甘家口西白堆子(Ganjiakou، Xi، Baiduizi)” “甘家口/西白/堆子(Ganjiakou، Xibai، Duizi)” و عنصر صحیح است. “甘家口/西/白堆子(Ganjiakou، Xi، Baiduizi)” است. از این رو،
املای نادرست آدرس و اختصارات آدرس در عبارت آدرس چینی نیز بر تقسیم بندی صحیح عناصر آدرس تأثیر می گذارد. غلط املایی رایج آدرس‌ها عمدتاً اشتباهات املایی همفونیک هستند، مانند غلط املایی “广安门 (Guanganmen)” به صورت “光安门 (Guanganmen)” و “箭厂胡同 (Jianchang Hutong)” (Jianchang Hutong) (“萎廡” به اشتباه نوشته شده است. جیانچانگ هوتونگ)». اختصارات رایج آدرس بیشتر برای بخش های اداری و جاده ها هستند. به عنوان مثال، “海淀区 (منطقه هایدیان)” و “海淀街道(خیابان هایدیان)” در بخش های اداری به صورت اختصاری “海淀(Haidian)”، و “莲花池西路 (襎迱池海池西路 (襎迱 غربی به عنوان) است.路 (جاده غربی لیانچی)». این توضیحات عناصر آدرس نادرست نه تنها مستعد ابهام هستند، بلکه ویژگی‌های آموزشی مدل نادرست را نیز ایجاد می‌کنند.

6. نتیجه گیری

فناوری ژئوکدینگ به عنوان پل ارتباطی بین اطلاعات مکانی و اطلاعات غیرمکانی، نقش مهمی در عصر کلان داده امروزی ایفا می کند. تقسیم بندی عناصر آدرس چینی یکی از تکنیک های اصلی کدگذاری جغرافیایی است. این مقاله با تمرکز بر مشکلات روش‌های تقسیم‌بندی موجود و ویژگی‌های عناصر آدرس چینی، یک روش تقسیم‌بندی عنصر آدرس چینی بر اساس شبکه عصبی Bi-GRU را پیشنهاد می‌کند. فناوری تقسیم‌بندی کلمات چینی برای انجام تقسیم‌بندی کلمات چینی روی دنباله‌های آدرس از قبل برای تولید ورودی مدل شبکه عصبی استفاده می‌شود. این آزمایش بر اساس داده‌های آدرس POI و برخی از داده‌های دایرکتوری در نقشه Baidu پکن برای آموزش و آزمایش است. نتایج تجربی نشان می‌دهد که شبکه عصبی دو طرفه در عملکرد تقسیم‌بندی برتری نسبت به شبکه عصبی یک طرفه دارد. علاوه بر این، زمانی که شبکه‌های عصبی Bi-GRU و Bi-LSTM عملکردهای تقسیم‌بندی یکسانی دارند، بازده تقسیم‌بندی شبکه عصبی Bi-GRU بالاتر است، در حالی که بازده تقسیم‌بندی شبکه عصبی Bi-LSTM نسبتاً پایین است. علاوه بر این، هر شبکه عصبی عملکرد بخش بندی بهتری را با ورودی کلمه نسبت به ورودی تک نویسه نشان داد.
در عبارات آدرس چینی، با توجه به ترتیبی که این عناصر آدرس در آدرس ظاهر می شوند، یک رابطه محدودیت فضایی قوی بین آنها وجود دارد – یعنی یک رابطه فرعی سلسله مراتبی. با این حال، این مقاله از منظر زبان طبیعی شروع می شود، بنابراین رابطه محدودیت فضایی بین عناصر آدرس را نادیده می گیرد. در این مقاله، آدرس‌های چینی بدون ساختار به عناصر آدرس مستقل و کامل تقسیم می‌شوند. با این حال، آنها هیچ گونه اطلاعات معنایی ندارند، بنابراین تعیین ترکیب و معنای بازنمایی آنها در آدرس غیرممکن است. بنابراین، حاشیه نویسی معنایی عناصر آدرس، حوزه ای است که نیاز به مطالعه بیشتر دارد.

منابع

  1. دار، س. Varshney، U. چالش ها و مدل های کسب و کار برای خدمات و تبلیغات مبتنی بر مکان تلفن همراه. اشتراک. ACM 2011 ، 54 ، 121-128. [ Google Scholar ] [ CrossRef ]
  2. کنگ، جی. Jensen، CS Querying Geo-Textual Data: Spatial Keyword Queries and Beyond. در مجموعه مقالات کنفرانس بین المللی مدیریت داده ها در سال 2016، سانفرانسیسکو، کالیفرنیا، ایالات متحده آمریکا، 26 ژوئن تا 1 ژوئیه 2016؛ ص 2207–2212. [ Google Scholar ]
  3. ملو، اف. مارتینز، بی. ژئوکدینگ خودکار اسناد متنی: بررسی رویکردهای فعلی. ترانس. GIS 2017 ، 21 ، 3-38. [ Google Scholar ] [ CrossRef ]
  4. دیویس، کالیفرنیا؛ Fonseca، FT ارزیابی قطعیت مکان های تولید شده توسط یک سیستم کدگذاری آدرس. Geoinformatica 2007 ، 11 ، 103-129. [ Google Scholar ] [ CrossRef ] [ PubMed ]
  5. لیلوی، ف. رجبی فرد، ع. کلانتری، م. رویکرد چند عنصری به استنتاج مکان توییتر: موردی برای واکنش اضطراری. ISPRS Int. J. Geo-Inf. 2016 ، 5 ، 56. [ Google Scholar ] [ CrossRef ]
  6. راشتون، جی. آرمسترانگ، نماینده مجلس؛ گیتلر، جی. گرین، BR; پاولیک، م. غرب، MM; Zimmerman، DL Geocoding در تحقیقات سرطان: مروری. صبح. J. قبلی پزشکی 2006 ، 30 ، S16–S24. [ Google Scholar ] [ CrossRef ] [ PubMed ]
  7. Ratcliffe، JH Geocoding جنایات و اولین برآورد از حداقل نرخ ضربه قابل قبول. بین المللی جی. جئوگر. Inf. علمی 2004 ، 18 ، 61-72. [ Google Scholar ] [ CrossRef ]
  8. Zandbergen، PA مقایسه تکنیک‌های ژئوکدینگ نقطه آدرس، بسته و خیابان. محاسبه کنید. محیط زیست سیستم شهری 2008 ، 32 ، 214-232. [ Google Scholar ] [ CrossRef ]
  9. آهنگ، Z. الگوریتم تطبیق آدرس بر اساس درک زبان طبیعی چینی. J. Remote Sens. 2013 ، 17 ، 788-801. [ Google Scholar ]
  10. کوای، ایکس. گوا، آر. ژانگ، ز. او، بی. ژائو، ز. Guo، H. استخراج نام محلی مبتنی بر زمینه فضایی و بخش بندی آدرس نوشتاری چینی از داده های POI شهری. ISPRS Int. Geo-Inf. 2020 ، 9 ، 147. [ Google Scholar ] [ CrossRef ] [ نسخه سبز ]
  11. شان، اس. لی، ز. یانگ، کیو. لیو، ا. ژائو، ال. لیو، جی. Chen, Z. آموزش نمایش نشانی جغرافیایی برای تطبیق آدرس. شبکه جهانی وب 2020 ، 23 ، 1-18. [ Google Scholar ] [ CrossRef ]
  12. کانگ، م. دو، س. وانگ، ام. روشی جدید برای استخراج آدرس چینی بر اساس مدل درخت آدرس. Acta Geod. کارتوگر. گناه 2015 ، 44 ، 99-107. [ Google Scholar ]
  13. تیان، کیو. رن، اف. هو، تی. لیو، جی. لی، آر. Du، Q. استفاده از یک روش تطبیق آدرس چینی بهینه برای توسعه یک سرویس رمزگذاری جغرافیایی: مطالعه موردی شنژن، چین. ISPRS Int. Geo-Inf. 2016 ، 5 ، 65. [ Google Scholar ] [ CrossRef ] [ نسخه سبز ]
  14. یائو، ی. Huang, Z. شبکه عصبی بازگشتی LSTM دو جهته برای تقسیم بندی کلمات چینی. در مجموعه مقالات کنفرانس بین المللی پردازش اطلاعات عصبی، کیوتو، ژاپن، 16 تا 21 اکتبر 2016. صص 345-353. [ Google Scholar ]
  15. لی، ایکس. دوان، اچ. Xu, M. یک شبکه عصبی واحد بازگشتی دردار برای تقسیم بندی کلمات چینی. J. Xiamen Univ. 2017 ، 56 ، 237-243. [ Google Scholar ]
  16. لو، کیو. زو، ز. خو، اف. ژانگ، دی. Guo، Q. Bi-GRU طبقه بندی احساسات برای چینی بر اساس قوانین گرامر و BERT. بین المللی جی. کامپیوتر. هوشمند سیستم 2020 ، 13 ، 538. [ Google Scholar ] [ CrossRef ]
  17. ژانگ، ام. یو، ن. Fu، G. یک مدل عصبی ساده و موثر برای تقسیم‌بندی کلمات مشترک و برچسب‌گذاری POS. IEEE/ACM Trans. زبان گفتار صوتی. روند. 2018 ، 26 ، 1528-1538. [ Google Scholar ] [ CrossRef ]
  18. وانگ، اس. ژانگ، اچ. وانگ، بی. تحقیق بهینه سازی در دو آرایه آزمایشی و کاربرد آن. جی. چین. Inf. Proc. 2006 ، 20 ، 24-30. [ Google Scholar ]
  19. لی، کیو. چن، ی. Sun, J. مکانیزم دیکشنری جدید برای تقسیم بندی کلمات چینی. جی. چین. Inf. Proc. 2003 ، 4 ، 13-18. [ Google Scholar ]
  20. مو، ج. ژنگ، ی. شو، ز. Zhang، S. بهبود روش تقسیم بندی کلمات چینی بر اساس فرهنگ لغت. محاسبه کنید. مهندس طراحی 2013 ، 34 ، 1802-1807. [ Google Scholar ]
  21. لی، ال. وانگ، دبلیو. او، بی. Zhang، Y. یک روش ترکیبی برای بخش‌بندی آدرس چینی. بین المللی جی. جئوگر. Inf. علمی 2018 ، 32 ، 30-48. [ Google Scholar ] [ CrossRef ]
  22. ژانگ، ایکس. Lv، G. لی، بی. رویکرد مبتنی بر قانون به تفکیک معنایی آدرس‌های چینی. J. Geo-Inf. علمی 2010 ، 1 ، 9-16. [ Google Scholar ] [ CrossRef ]
  23. کم، JK; Ng، HT؛ Guo, W. رویکرد حداکثر آنتروپی به بخش بندی کلمات چینی. در مجموعه مقالات چهارمین کارگاه آموزشی SIGHAN در مورد پردازش زبان چینی، جزیره ججو، کره، 14 تا 15 اکتبر 2005. صص 161-164. [ Google Scholar ]
  24. ژانگ، ال. کین، ام. ژانگ، ایکس. Ma, H. یک الگوریتم تقسیم بندی کلمات چینی بر اساس حداکثر آنتروپی. در مجموعه مقالات کنفرانس بین المللی یادگیری ماشین و سایبرنتیک، چینگدائو، چین، 11 تا 14 ژوئیه 2010. ص 1264–1267. [ Google Scholar ]
  25. ژانگ، اچ. لیو، کیو. چنگ، ایکس. ژانگ، اچ. Yu, H. تحلیل واژگانی چینی با استفاده از مدل مارکوف پنهان سلسله مراتبی. در مجموعه مقالات دومین کارگاه SIGHAN در مورد پردازش زبان چینی، ساپورو، ژاپن، 11-12 ژوئیه 2003. صص 63-70. [ Google Scholar ]
  26. آسهارا، م. گوه، CL; وانگ، ایکس. ماتسوموتو، ی. ترکیب قطعه‌ساز و قطعه‌کننده برای تقسیم‌بندی کلمات چینی. در مجموعه مقالات دومین کارگاه SIGHAN در مورد پردازش زبان چینی، ساپورو، ژاپن، 11-12 ژوئیه 2003. صص 144-147. [ Google Scholar ]
  27. پنگ، اف. فنگ، اف. McCallum، A. بخش‌بندی چینی و تشخیص کلمه جدید با استفاده از فیلدهای تصادفی شرطی. در مجموعه مقالات بیستمین کنفرانس بین المللی زبان شناسی محاسباتی، ژنو، سوئیس، 23 تا 27 اوت 2004. صص 562-568. [ Google Scholar ]
  28. لافرتی، جی. مک کالوم، ا. Pereira، F. زمینه های تصادفی شرطی: مدل های احتمالی برای بخش بندی و برچسب گذاری داده های توالی. در مجموعه مقالات هجدهمین کنفرانس بین المللی یادگیری ماشین، ویلیامزتاون، MA، ایالات متحده آمریکا، 28 ژوئن تا 1 ژوئیه 2001. صص 282-289. [ Google Scholar ]
  29. چن، ایکس. کیو، ایکس. زو، سی. لیو، پی. Huang، X. شبکه های عصبی حافظه کوتاه مدت برای تقسیم بندی کلمات چینی. در مجموعه مقالات کنفرانس 2015 در مورد روشهای تجربی در پردازش زبان طبیعی، لیسبون، پرتغال، 17-21 سپتامبر 2015. صص 1197–1206. [ Google Scholar ]
  30. چن، ایکس. کیو، ایکس. زو، سی. Huang, X. شبکه عصبی بازگشتی دردار برای تقسیم بندی کلمات چینی. در مجموعه مقالات نشست سالانه انجمن زبانشناسی محاسباتی، پکن، چین، 26 تا 31 ژوئیه 2015. صفحات 1744-1753. [ Google Scholar ]
  31. هوانگ، CR; چن، کی جی. چن، مالی؛ Chang، استاندارد تقسیم بندی LL برای پردازش زبان طبیعی چینی. در مجموعه مقالات کنفرانس بین المللی زبانشناسی محاسباتی، تایپه، تایوان، 1-4 اوت 1997; صص 47-62. [ Google Scholar ]
  32. هوکرایتر، اس. Schmidhuber, J. حافظه کوتاه مدت طولانی. محاسبات عصبی 1997 ، 9 ، 1735-1780. [ Google Scholar ] [ CrossRef ]
  33. چو، ک. ون مرینبور، بی. گلچهره، سی. بهداناو، د. بوگارس، اف. شونک، اچ. Bengio، Y. آموزش نمایش عبارات با استفاده از رمزگذار-رمزگشا RNN برای ترجمه ماشینی آماری. در مجموعه مقالات کنفرانس 2014 در مورد روشهای تجربی در پردازش زبان طبیعی، دوحه، قطر، 25-29 اکتبر 2014. صفحات 1724-1734. [ Google Scholar ]
  34. ژنگ، ایکس. چن، اچ. Xu, T. یادگیری عمیق برای تقسیم بندی کلمات چینی و برچسب گذاری POS. در مجموعه مقالات کنفرانس 2013 در مورد روشهای تجربی در پردازش زبان طبیعی، سیاتل، WA، ایالات متحده آمریکا، 18-21 اکتبر 2013. صص 647-657. [ Google Scholar ]
  35. یو، سی. وانگ، اس. Guo, J. آموزش تقسیم بندی کلمات چینی بر اساس مدل دوطرفه GRU-CRF و شبکه CNN. IJTHI 2019 ، 15 ، 47–62. [ Google Scholar ] [ CrossRef ]
  36. لیو، ز. دینگ، دی. لی، سی. روش تقسیم بندی کلمات چینی برای متن کوتاه چینی بر اساس فیلدهای تصادفی شرطی. J. Tsinghua Univ. نات علمی اد. 2015 ، 55 ، 906-910. [ Google Scholar ]
  37. دولین، جی. چانگ، مگاوات؛ تره فرنگی.؛ Toutanova، K. BERT: پیش آموزش ترانسفورماتورهای عمیق دو جهته برای درک زبان. در مجموعه مقالات کنفرانس 2019 بخش آمریکای شمالی انجمن زبان‌شناسی محاسباتی: فناوری‌های زبان انسانی، مینیاپولیس، MN، ایالات متحده آمریکا، 8 ژوئن 2019؛ جلد 1، ص 4171–4186. [ Google Scholar ]
  38. چن، ایکس. خو، ال. لیو، ز. سان، م. لوان، اچ. یادگیری مشترک تعبیه شخصیت و کلمه. در مجموعه مقالات بیست و چهارمین کنفرانس مشترک بین المللی هوش مصنوعی، بوئنوس آیرس، آرژانتین، 25 تا 31 ژوئیه 2015؛ ص 1236-1242. [ Google Scholar ]
  39. لو، ی. ژانگ، ی. جی، DH چند نمونه اولیه تعبیه نویسه چینی. در مجموعه مقالات دهمین کنفرانس بین المللی منابع و ارزشیابی زبان، پورتوروژ، اسلوونی، 23 تا 28 مه 2016; صص 855-859. [ Google Scholar ]
  40. فن، تی. ژو، جی. چنگ، ی. لی، کیو. ژو، دی. Munnoch، R. یک رویکرد جدید تقسیم‌بندی صدای قلب مستقیم با استفاده از GRU دو جهته. در مجموعه مقالات بیست و چهارمین کنفرانس بین المللی اتوماسیون و محاسبات 2018، نیوکاسل، انگلستان، 6 تا 7 سپتامبر 2018؛ صص 1-5. [ Google Scholar ]
  41. سوتسکور، آی. وینیالز، او. Le، QV توالی برای یادگیری توالی با شبکه های عصبی. در مجموعه مقالات کنفرانس سیستم های پردازش اطلاعات عصبی، مونترال، QC، کانادا، 8-13 دسامبر 2014. صص 3104–3112. [ Google Scholar ]
شکل 1. ساختار واحد شبکه عصبی واحد بازگشتی دردار (GRU). ایکستیورودی فعلی است، zتیدروازه به روز رسانی است، rتیدروازه تنظیم مجدد است، ساعت˜تیحالت مخفی نامزد گره پنهان فعلی است، ساعتتیحالت پنهان فعلی است، ایکستیورودی شبکه عصبی فعلی است و ساعتتی-1حالت پنهان در لحظه قبل است. σتابع فعال سازی است سمنgمترoمند. ساعت˜تیتمام اطلاعات مهم را از طریق گیت تنظیم مجدد و اطلاعات ورودی ثبت می کند.
شکل 2. مدل تقسیم بندی عنصر آدرس چینی بر اساس شبکه عصبی دو طرفه GRU (Bi-GRU). تگ رنگی نشان دهنده تگ نهایی کلمه ورودی است. B نشان دهنده ابتدای عنصر آدرس، M نشان دهنده وسط عنصر آدرس، E نشان دهنده پایان عنصر آدرس، و S نشان دهنده عنصر آدرس تک کلمه است.
شکل 3. ساختار واحد شبکه عصبی Bi-GRU.
شکل 4. مقایسه هایپرپارامترهای مختلف نرخ خروج برای هر شبکه عصبی. LSTM: حافظه کوتاه مدت بلند مدت.
شکل 5. مقایسه ابرپارامترهای اندازه دسته ای مختلف برای هر شبکه عصبی.
شکل 6. نتایج تقسیم بندی هر شبکه عصبی برای مدل های ورودی مختلف. دقت (P)، فراخوان (R) و امتیاز F1 (F1).

بدون دیدگاه

دیدگاهتان را بنویسید