الذكاء الاصطناعي للمساعدة في منع رواد فيسبوك من الانتحار

  • بواسطة: DWW تاريخ النشر: الأربعاء، 29 نوفمبر 2017
مقالات ذات صلة
دعم المساعد الصوتي سيري بتقنيات ذكاء اصطناعي متقدمة
3 خليجيين ضمن قائمة تايم لأهم رواد الذكاء الاصطناعي في 2024
ما هو الذكاء الاصطناعي

ذكرت شركة فيسبوك أنها تعتزم التوسع في برنامج التعرف على الأنماط السلوكية، ليشمل دولاً أخرى بعد نجاح تجارب في الولايات المتحدة للكشف عمن لديهم نوايا للانتحار.

إمبراطورية فيسبوك: مارك زوكربيرغ يتحكم بـ4.2 مليار حساب.. والمراهقون هم التحدي الأبرز

فيديو ذات صلة

This browser does not support the video element.

وبدأت فيسبوك، التي تعد أكبر شبكة للتواصل الاجتماعي في العالم، بتجربة البرنامج في الولايات المتحدة في مارس؛ حيث بدأت بإجراء مسح تحليلي لنصوص المنشورات والتعليقات للبحث عن عبارات قد تنم عن الإقدام على الانتحار.

ولم تكشف فيسبوك تفاصيل فنية كثيرة عن البرنامج ولكنها قالت أمس الاثنين (27 نوفمبر 2017) إن برنامجها يبحث عن عبارات دالة كأسئلة من قبيل "هل أنت بخير؟" و"كيف يمكنني أن أساعدك؟".

وحين يرصد البرنامج نزعة للانتحار فإنه ينبه فريقا من العاملين في فيسبوك متخصصين في تولي مثل هذه التقارير. ويقدم النظام اقتراحات للشخص المعني أو لأصدقائه مثل خط للمساعدة الهاتفية، ويتصل موظفو فيسبوك أحيانا بالسلطات المحلية للتدخل.

وقال، جاي روزن، نائب مدير إدارة المنتجات في شركة فيسبوك إن الشركة شرعت في التوسع في البرنامج بحيث يمتد خارج الولايات المتحدة بعد نجاح التجارب بها. وقالت فيسبوك إنها تحاول توفير موظفين متخصصين على مدار الساعة للاتصال بالسلطات المعنية باللغات المحلية. وأردف روزن " عامل السرعة مهم. علينا أن نقدم المساعدة في الوقت المناسب".

خاصية جديدة في فيسبوك تتيح التدوين بلغات مختلفة في وقت واحد

من جانب آخر، لم يذكر روزن الدول الجاري طرح البرنامج بها، ولكنه قال إنه سيكون متاحاً في النهاية في مختلف أرجاء العالم عدا الاتحاد الأوروبي بسبب حساسيات رفض التطرق إليها.

هذا وتعرف شبكة فيسبوك الكثيرعن مستخدميها البالغ عددهم 2.1 مليار، وهي بيانات تستخدمها لأغراض الدعاية. ولكن لم يعرف عن الشركة من قبل مسحها المحادثات بشكل ممنهج بحثا عن أنماط السلوك الضار.وتستثنى من هذا جهود فيسبوك لرصد المحادثات المشبوهة بين أطفال وذئاب بشرية حيث تتصل الشركة أحيانا بالسلطات حال التقاط شاشاتها الآلية لغة غير لائقة.

وقال، ريان كالو، أستاذ القانون بجامعة واشنطن والذي يكتب عن التكنولوجيا، إنه ربما كان من الصعب على شركات التكنولوجيا تبرير إجراء مسح تحليلي للمحادثات في مواقف أخرى. ورفض روزن البوح عما إذا كانت فيسبوك تدرس تطبيق برنامج التعرف على الأنماط السلوكية في نواح أخرى كالجرائم غير الجنسية.

ر.م/ع.ج.م ( رويترز)