أوضحت Google بالضبط كيف يتم الإشراف على المراجعات على خدمة الخرائط الخاصة بها في منشور مدونة مفصل ، مؤكدة أن الكثير من “العمل لمنع المحتوى غير اللائق يتم وراء الكواليس”. يشرح منشور المدونة بالضبط ما يحدث عندما ينشر المستخدم مراجعة لنشاط تجاري مثل مطعم أو متجر محلي على الخرائط. وقد حددت الإجراءات التي يتم اتخاذها لضمان عدم ارتفاع المراجعات المزيفة والمسيئة. في الماضي ، أوضحت Google أيضًا كيفية عمل التوصيات على YouTube.
كتب المنشور إيان ليدر ، مدير منتجات المجموعة ، المحتوى الذي ينشئه المستخدم في Google. كتب Leader: “بمجرد كتابة السياسة ، يتم تحويلها إلى مواد تدريبية – لكل من المشغلين لدينا وخوارزميات التعلم الآلي – لمساعدة فرقنا على اكتشاف المحتوى الذي ينتهك السياسة والحفاظ في نهاية المطاف على تعليقات Google مفيدة وموثوقة”.
وفقًا للشركة ، في اللحظة التي يتم فيها كتابة التقييم ونشره ، يتم إرساله إلى “نظام الإشراف” الخاص بالشركة للتأكد من عدم وجود انتهاك للسياسة. تعتمد Google على كل من أنظمة قواعد التعلم الآلي والمراجعين البشريين للتعامل مع حجم المراجعات التي يتلقونها.
يوضح منشور المدونة أن الأنظمة الآلية هي “خط الدفاع الأول لأنها جيدة في تحديد الأنماط”. تبحث هذه الأنظمة عن إشارات للإشارة إلى المحتوى المزيف والاحتيالي وإزالته حتى قبل نشره. تتضمن الإشارات التي تبحث عنها الأنظمة الآلية ما إذا كان المحتوى يحتوي على أي شيء مسيء أو خارج الموضوع ، وإذا كان لدى حساب Google الذي ينشره أي سجل من السلوك المشبوه في الماضي.
يقومون أيضًا بالاطلاع على المكان الذي يتم نشر المراجعة عنه. يوضح القائد أن هذا أمر مهم ، لأنه إذا كان هناك “وفرة من المراجعات خلال فترة زمنية قصيرة” ، فقد يشير ذلك إلى مراجعات مزيفة يتم نشرها. سيناريو آخر هو ما إذا كان المكان المعني قد حظي بأي اهتمام في الأخبار أو وسائل التواصل الاجتماعي ، مما قد يشجع الأشخاص أيضًا على “ترك تعليقات احتيالية”.
ومع ذلك ، تتطلب آلات التدريب أيضًا الحفاظ على توازن دقيق. أحد الأمثلة المعطاة هو استخدام مصطلح “مثلي” ، وهو مصطلح مهين بطبيعته وغير مسموح به في مراجعات Google. لكن ليدر يوضح أنه إذا علّمت Google “نماذج التعلم الآلي الخاصة بها بأنها تُستخدم فقط في الكلام الذي يحض على الكراهية ، فقد نزيل عن طريق الخطأ المراجعات التي تروّج لمالك أعمال مثلي الجنس أو مساحة آمنة لـ LGBTQ +.”
هذا هو السبب في أن Google لديها “مشغلون بشريون” “يجرون اختبارات الجودة بانتظام ويكملون تدريبًا إضافيًا لإزالة التحيز من نماذج التعلم الآلي”.
إذا وجدت الأنظمة “عدم وجود انتهاكات للسياسة ، فسيتم نشر المراجعة في غضون ثوانٍ”. ومع ذلك ، تدعي Google أنه حتى بعد بدء المراجعة ، فإن أنظمتها “تواصل تحليل المحتوى الذي تمت المساهمة به ومراقبة الأنماط المشكوك فيها”.
وفقًا للمدونة ، يمكن أن تكون هذه “الأنماط أي شيء من مجموعة من الأشخاص يتركون تعليقات على نفس المجموعة من الملفات الشخصية للأعمال إلى شركة أو مكان يتلقى عددًا كبيرًا بشكل غير عادي من التقييمات بنجمة واحدة أو 5 نجوم خلال فترة زمنية قصيرة”.
يعمل الفريق أيضًا “بشكل استباقي لتحديد مخاطر إساءة الاستخدام المحتملة ، مما يقلل من احتمالية نجاح هجمات الإساءة”. تشمل الأمثلة ما إذا كان هناك حدث قادم مثل الانتخابات. ثم تضع الشركة “إجراءات حماية عالية” للأماكن المرتبطة بالحدث والأعمال التجارية الأخرى المجاورة. مرة أخرى ، سوف “تراقب هذه الأماكن والشركات حتى تنحسر مخاطر إساءة الاستخدام”.
اكتشاف المزيد من مباشر التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.