درباره آپدیت جدید گوگل BERT شنیده اید؟ اگر در زمینه بهینه سازی موتورهای جستجو (سئو) مهارت بالایی دارید، احتمالاً با آن آشنا هستید. برت بیشتر در مورد معنایی که در پشت کلمات وجود دارد تاکید میکند تا خود کلمات. به عبارت دیگر هدف جستجو از همیشه مهمتر است. بروزرسانی اخیر گوگل BERT که بر دنیای سئو تأثیر میگذارد، یک مورد از 10 عبارت جستجو را تحت تأثیر قرار میدهد و با گذشت زمان این میزان در زبانها و مکانهای بیشتر تاثیرگذار میشود. به دلیل تأثیر بسیار زیاد BERT بر جستجوها، داشتن محتوای باکیفیت بیش از هر زمان دیگری مهم است. برای اینکه محتوای شما بتواند بهترین عملکرد را برای BERT (و برای هدف جستجو) داشته باشد، در این مقاله به نحوه عملکرد BERT با جستجوها و نحوه استفاده از BERT برای آوردن ترافیک بیشتر به سایت خود خواهیم پرداخت.
BERT چیست؟
BERT مخفف Bidirectional Encoder Representations from Transformers یعنی «نمایش رمزگذار دو طرفه از ترانسفورماتورها» است. این عبارتی است که با برخی اصطلاحات بسیار فنی یادگیری ماشین نمایه شده است. اما معنای آن چیست؟
- Bidirectional یا دو جهته: BERT جملات را در هر دو جهت بطور همزمان رمزگذاری میکند.
- Encoder Representations یا نمایش رمزگذار: BERT جملات را به نمایشهایی از کلمه به معنای قابل درک ترجمه میکند.
- Transformers یا ترانسفورماتورها: به BERT اجازه می دهد تا هر کلمه در جمله را با یک موقعیت نسبی رمزگذاری کند، زیرا بافت کلمه تا حد زیادی به ترتیب آن بستگی دارد (که روشی کارآمدتر از بخاطر سپردن دقیق نحوه ورود جملات به چارچوب است).
بطور خلاصه میتوان گفت که BERT از ترانسفورماتورها برای رمزگذاری نمایش کلمات در دو طرف یک کلمه هدف استفاده میکند. در واقع یک چارچوب الگوریتم پردازش زبان طبیعی (NLP) کاملاً جدید است که قبلا هرگز انجام نشده است. این نوع ساختار لایه ای از یادگیری ماشینی را به هوش مصنوعی گوگل اضافه میکند که برای درک بهتر زبان انسان طراحی شده است. به عبارت دیگر با این بروزرسانی جدید، الگوریتمهای هوش مصنوعی گوگل میتوانند جملات و جستجوها را با سطح بالاتری از درک زمینه ای انسانی و عقل سلیم بیش از همیشه بخوانند. در حالی که زبان را کماکان در سطح انسان نمیفهمد اما یک گام بزرگ رو به جلو برای NLP در درک زبانی ماشینهااست.
گوگل BERT نحوه قضاوت صفحات وب را مانند بروزرسانیهای الگوریتمی قبلی مانند پنگوئن یا پاندا تغییر نمیدهد. این صفحات را به عنوان مثبت یا منفی رتبه بندی نمیکند. در عوض نتایج جستجو را در جستجوهای محاوره ای بهبود میبخشد؛ بنابراین نتایج، بهتر با هدف پشت سر آنها مطابقت دارند.
تاریخچه BERT
گوگل برت از اکتبر 2018 زمانی که مقاله تحقیقاتی BERT: Pre-training of Deep Bidirectional Transformers for Understanding زبان منتشر شد، در جامعه پردازش یادگیری طبیعی (NLP) و یادگیری ماشین (ML) مورد بحث قرار گرفته است.
چندی بعد گوگل یک چارچوب NLP متن باز و پیشگامانه را بر اساس مقاله ای منتشر کرد که جامعه NLP میتوانست از آن برای تحقیق در مورد NLP و گنجاندن آن در پروژه های خود استفاده کند. از آن زمان چندین چارچوب NLP جدید مبتنی بر BERT ترکیب شده است، از جمله ALBERT ترکیب گوگل و تویوتا، RoBERTa فیس بوک، MT-DNN مایکروسافت و BERT-mtl IBM. امواج BERT که در جامعه NLP ایجاد میشود، بیشتر موارد ذکر شده در اینترنت را به خود اختصاص میدهند اما اشاره های BERT در دنیای سئو در حال افزایش است. این به دلیل تمرکز BERT بر روی زبان در جستارهای طولانی و خواندن وب سایتها همچو انسان برای ارائه نتایج بهتر برای جستجوها است.
گوگل BERT یک چارچوب بسیار پیچیده است و درک آن نیازمند سالها مطالعه در نظریه و فرآیندهای NLP است. دنیای سئو نیازی به عمیق شدن ندارد اما درک اینکه چه کاری انجام میدهد و چگونه نتایج جستجو را از این به بعد تحت تاثیر قرار میدهد، مفید است.
پیشنهاد میکنیم بخوانید: چرا کسی محتوای ما را نمیخواند؟
نحوه عملکرد گوگل BERT
در اینجا نحوه نگاه BERT به متن جمله یا عبارت جستجو به عنوان یک کل است:
- BERT یک پرس و جو میکند.
- کلمه به کلمه آنرا تجزیه میکند.
- به تمام روابط ممکن بین کلمات نگاه میکند.
- یک نقشه دو طرفه ایجاد میکند که رابطه بین کلمات را در هر دو جهت مشخص میکند.
- هنگامی که کلمات با یکدیگر جفت میشوند، معانی زمینه ای را تجزیه و تحلیل میکند.
خب، برای درک بهتر این موضوع، از این مثال استفاده میکنیم:
هر خط نشان میدهد که چگونه معنای پاندا معنای کلمات دیگر در جمله را تغییر میدهد و بالعکس. روابط دو طرفه هستند بنابراین فلشها دو طرفه هستند. مسلما این یک مثال بسیار بسیار ساده از نحوه نگاه BERT به متن است. این مثال فقط روابط بین کلمه هدف ما یعنی panda و سایر بخشهای معنی دار جمله را بررسی میکند. در عین حال BERT روابط متنی همه کلمات در جمله را تجزیه و تحلیل میکند. این تصویر ممکن است کمی دقیق تر باشد:
BERT از رمزگذارها و رمزگشاها برای تجزیه و تحلیل روابط بین کلمات استفاده میکند. تصور اینکه BERT چگونه به عنوان یک فرآیند ترجمه عمل میکند، مثال خوبی از نحوه کارکرد آن ارائه میدهد. شما با یک ورودی شروع میکنید، هر جمله ای که میخواهید به زبان دیگری ترجمه کنید. فرض کنید میخواستید جمله پاندا ما در بالا را از انگلیسی به فارسی ترجمه کنید. با این حال BERT انگلیسی یا فارسی را نمیفهمد؛ بنابراین از رمزگذار برای ترجمه «پانداها به جز بامبو چه چیزی می خورند؟» استفاده می کند. به زبانی که میفهمد.
این زبان در واقع زبانی است که برت در طول دوره تحلیل زبان برای خود میسازد (این جایی است که بازنمایی رمزگذار وارد میشود). BERT کلمات را با توجه به موقعیت نسبی آنها و اهمیت آنها در معنای جمله برچسب گذاری میکند. سپس آنها را بر روی یک بردار انتزاعی ترسیم میکند؛ بنابراین نوعی زبان تخیلی ایجاد میکند. BERT جمله انگلیسی ما را به زبان خیالی خود تبدیل میکند سپس با استفاده از مترجم، زبان خیالی را به فارسی تبدیل میکند. این فرآیند برای ترجمه عالی است اما همچنین توانایی هر مدل NLP مبتنی بر BERT را برای تجزیه صحیح ابهامات زبانی بهبود میدهد، مانند:
- مرجع ضمیر
- مترادف و متضاد
- کلماتی با معانی مختلف
BERT از قبل آموزش دیده است
BERT از قبل آموزش دیده است، به این معنی که یادگیری زیادی در پس کارکرد خود دارد. اما یکی از چیزهایی که BERT را از چارچوب های قبلی NLP متمایز میکند این است که BERT از قبل روی متن ساده آموزش داده شده بود. سایر چارچوبهای NLP به پایگاه داده ای از کلمات نیاز داشتند که توسط زبان شناسان بصورت نحوی برچسب گذاری شده بودند تا معنی آنها را بفهمند. زبان شناسان باید هر کلمه را در پایگاه داده برای بخشی از گفتار علامت گذاری کنند. این فرآیندی سخت و طاقت فرسا است و میتواند باعث ایجاد بحثهای داغ و طولانی در میان زبان شناسان شود.
بخشی از گفتار میتواند مشکل باشد، بخصوص زمانی که قسمت گفتار به دلیل سایر کلمات در جمله تغییر میکند. BERT این کار را خودش بدون نیاز به نظارت انجام میدهد و آنرا به اولین چارچوب NLP در جهان تبدیل میکند که با استفاده از دایره المعارف آنلاین ویکی پدیا اینکار را میکند. این یعنی بیش از 2.5 میلیارد کلمه! BERT ممکن است همیشه دقیق نباشد اما هرچه پایگاه داده های بیشتری را تجزیه و تحلیل کند دقت آن بیشتر میشود.
BERT دو طرفه است
BERT جملات را بصورت دو طرفه رمزگذاری میکند. به زبان ساده BERT یک کلمه هدف را در یک جمله میگیرد و به تمام کلمات اطراف آن در هر جهت نگاه میکند. رمزگذار عمیقا دو جهته BERT در میان چارچوب های NLP منحصر به فرد است. چارچوب های NLP قبلی مانند OpenAI GPT جملات را تنها در یک جهت از چپ به راست رمزگذاری میکنند. مدلهای بعدی مانند ELMo میتوانند هم در سمت چپ و هم در سمت راست یک کلمه هدف تمرین کنند اما این مدلها رمزگذاریها را بطور مستقل به هم متصل میکنند. این باعث قطع ارتباط متنی بین هر طرف کلمه مورد نظر میشود. از طرف دیگر BERT زمینه همه کلمات را در دو طرف کلمه مورد نظر شناسایی میکند و همه این کارها را همزمان انجام میدهد. این بدان معنی است که میتواند بطور کامل ببیند و درک کند که چگونه معنای کلمات بر بافت جمله به عنوان یک کل تأثیر میگذارد.
نحوه ارتباط کلمات با یکدیگر (به معنی تعداد دفعات تکرار آنها با هم) همان چیزی است که زبان شناسان آنرا ترکیب یا collocation می نامند. ترکیبها کلماتی هستند که اغلب با هم اتفاق میافتند. برای مثال کریسمس و هدیه اغلب در کنار هم یافت میشوند. توانایی شناسایی ترکیبها به تعیین معنای کلمه کمک میکند. گوگل برت هر کلمه را در یک جمله با استفاده از هم مجموعه های کلمه ای که از قبل از آموزش آن بدست می آید، شناسایی میکند.
پیشنهاد میکنیم بخوانید: عناوین را چگونه بنویسیم تا باعث جذب کلیک شود؟
BERT از ترانسفورماتور استفاده میکند
توابع رمزگذاری دو طرفه BERT با ترانسفورماتورها عمل میکند که منطقی است. اگر به خاطر داشته باشید T در BERT مخفف ترانسفورماتور است. گوگل تشخیص میدهد که BERT نتیجه یک پیشرفت در تحقیقات خود در مورد ترانسفورماتورها است. گوگل ترانسفورماتورها را اینگونه تعریف می کند «مدلهایی که کلمات را در رابطه با همه کلمات دیگر در یک جمله پردازش میکنند، نه اینکه به ترتیب و یک به یک آنرا انجام دهند». ترانسفورماتورها از رمزگذارها و رمزگشاها برای پردازش روابط بین کلمات در یک جمله استفاده میکنند.
BERT هر کلمه از جمله را میگیرد و نمایشی از معنای کلمه به آن میدهد. اینکه معنی هر کلمه چقدر با دیگری مرتبط است با خط پررنگ نشان داده میشود. در مورد تصویر زیر در سمت چپ it قوی ترین ارتباط را با the و animal دارد و در این زمینه مشخص می کند که it به چه چیزی اشاره دارد. در سمت راست، it قویترین ارتباط را با street دارد. ارجاع ضمایر مانند این یکی از مسائل مهمی بود که مدلهای زبان در حل آن مشکل داشتند اما BERT میتواند این کار را بخوبی انجام دهد.
BERT از مدل زبان ماسک شده (MLM) استفاده میکند
آموزش BERT شامل پیش بینی کلمات در یک جمله با استفاده از Masked Language Modeling است. کاری که این مدل انجام می دهد این است که 15٪ از کلمات در جمله را به این صورت پنهان میکند. مثلا
- [MASK] غیر از بامبو چه میخورند؟
سپس BERT باید پیش بینی کند که کلمه پوشیده یا Mask شده چیست. این دو کار را انجام میدهد: BERT را در متن کلمه آموزش میدهد و وسیله ای برای اندازه گیری میزان یادگیری BERT فراهم میکند. کلمات پوشانده شده مانع از یادگیری کپی و چسباندن ورودی توسط BERT میشوند. پارامترهای دیگری مانند جابجایی رمزگشا به سمت راست، پیش بینی جمله بعدی یا پاسخ دادن به سؤالات متنی و گاهی غیرقابل پاسخ نیز این کار را انجام میدهند. خروجی BERT نشان می دهد که BERT در حال یادگیری و اجرای دانش خود در مورد بافت کلمه است.
BERT چه تأثیری دارد؟
همه اینها برای جستجو چه معنایی دارد؟ ترسیم جستجوهای دو طرفه با استفاده از ترانسفورماتورها همانطور که BERT انجام میدهد بسیار مهم است. این بدان معناست که الگوریتم ها ظرافتهای جزئی اما معنی دار پشت کلماتی مانند حروف اضافه را در نظر میگیرند که میتواند هدف پشت جستجوها را به شدت تغییر دهد.
قبل از بروزرسانی BERT الگوریتم های گوگل بطور منظم هنگام بازگرداندن اطلاعات، کلمات پرکننده مانند «در» و «از» را نادیده میگرفتند. این منجر به صفحات جستجویی شد که مانند این صفحه با هدف جستجو مطابقت نداشتند. از آنجایی که BERT تنها بر 10٪ از عبارتهای جستجو تأثیر میگذارد، جای تعجب نیست که صفحه مورد جستجوی شما در زمان نوشتن این مطلب تحت تأثیر BERT قرار نگرفته باشد.
Featured snippets یا قطعه های ویژه
یکی از مهمترین تأثیراتی که BERT خواهد داشت، بر روی قطعه های ویژه خواهد بود. Featured snippet ها ارگانیک هستند و بر الگوریتم های یادگیری ماشینی تکیه میکنند و BERT دقیقاً با این طرح مطابقت دارد. نتایج Featured snippets اغلب از اولین صفحه نتایج جستجو استخراج میشوند اما اکنون ممکن است استثناهایی وجود داشته باشد. از آنجا که آنها ارگانیک هستند، عوامل زیادی میتوانند آنها را تغییر دهند، از جمله بروز رسانی های الگوریتم جدید مانند BERT. با BERT، الگوریتم هایی که بر Featured snippets تأثیر میگذارند، بهتر میتوانند هدف پشت سؤالات جستجو را تجزیه و تحلیل کنند و نتایج جستجو را بهتر با آنها مطابقت دهند. همچنین این احتمال وجود دارد که BERT بتواند متن طولانی نتایج را بگیرد، مفاهیم اصلی را بیابد و محتوا را به عنوان Featured snippets خلاصه کند.
جستجوهای بین المللی
از آنجایی که زبانها قوانین گرامری زیربنایی مشابهی دارند، BERT میتواند دقت ترجمه ها را افزایش دهد. هر بار که BERT ترجمه یک زبان جدید را یاد میگیرد، مهارتهای زبانی جدیدی بدست می آورد. این مهارتها میتواند به BERT کمک کند تا زبانها را با دقت بالاتری که قبلاً هرگز ندیده است، ترجمه کند.
چگونه سایت خود را برای BERT بهینه کنم؟
اکنون به سوال بزرگ می رسیم: چگونه سایت خود را برای گوگل BERT بهینه سازی کنیم؟ جواب کوتاه است. شما نمی توانید.
BERT یک چارچوب هوش مصنوعی است. با هر اطلاعات جدیدی که بدست می آورد یاد میگیرد. سرعت پردازش اطلاعات و تصمیم گیری به این معنی است که حتی توسعه دهندگان BERT نمیتوانند انتخاب هایی را که BERT انجام میدهد پیش بینی کنند. به احتمال زیاد، BERT حتی نمیداند که چرا تصمیم میگیرد. اگر نداند، سئوکاران نمیتوانند مستقیماً برای آن بهینه سازی کنند. با این حال، کاری که میتوانید برای رتبه بندی بهتر در صفحات جستجو انجام دهید، ادامه تولید محتوای انسان پسند است که هدف جستجو را برآورده میکند. هدف BERT کمک به گوگل برای درک هدف کاربر است؛ بنابراین بهینه سازی برای هدف کاربر برای BERT ایده آل است. بنابراین، کاری را که انجام می دادید انجام دهید. در مورد کلمات کلیدی مورد نظر خود تحقیق کنید. روی کاربران تمرکز کنید و محتوایی را تولید کنید که آنها می خواهند ببینند. در نهایت وقتی محتوا مینویسید، از خود بپرسید:
آیا خوانندگان من می توانند آنچه را که به دنبال آن هستند در محتوای من بیابند؟