بصفتي صحفية متخصِّصة في التكنولوجيا، واستشارية في مجال الاتصالات، ومتخصِّصة في التكامل التكنولوجي، فإنَّني أحرص دائماً على المشاركة في أية محادثة عن أخلاقيات الذكاء الاصطناعي والإعلام، فيخشى معظم العاملين حالياً في وسائل الأعلام من تأثير الذكاء الاصطناعي في عملهم بوصفه مصدراً لكسب الدخل.
إذا بحثت في وسائل التواصل الاجتماعي عن منشورات بعنوان “شات جي بي تي” (ChatGPT)، و”تسريح العمال”، و”كتَّاب الإعلانات”، فلن تجد سوى عدداً قليلاً من مقاطع الفيديو التي تتحدث عن قيام أرباب العمل باستبدال مؤلفي المحتوى، وموظفي التسويق بتكنولوجيا الذكاء الاصطناعي.
يقول أيضاً بعض كاتبي الإعلانات إنَّ الذكاء الاصطناعي لن يأخذ مكانهم في العمل كلياً، ولكن يجب على هذه الفئة من الموظفين التكيُّف للعمل جنباً إلى جنب مع هذه التكنولوجيا.
لكن هل من الأخلاقي وجود “شات جي بي تي” في وسائل الإعلام؟ وماذا بشأن الذكاء الاصطناعي بشكل عام؟
لطالما كانت وجهة نظري بأنَّ الهدف من تكنولوجيا الذكاء الاصطناعي هو دعمنا نحن البشر في أداء مهامنا، وليس الحلول مكاننا كلياً في أداء وظائفنا.
الآلات غير قادرة على التعلُّم:
كي نفهم لماذا يتعذر على الذكاء الاصطناعي أن يحل محل البشر، يجب أن نفهم كيف يتم تعلُّم الآلة، والحقيقة الأساسية التي يجب إدراكها هي أنَّ الآلات غير قادرة فعلياً على التعلُّم.
يقول البروفيسور في دراسات الإعلام في جامعة “نورثيرن إلينوي” (Northern Illinois University) “ديفيد جي جونكل” (David J. Gunkel) في كتابه: “مقدمة في الاتصالات والذكاء الاصطناعي” (An Introduction to Communication and Artificial Intelligence): “لا تتعلم الآلات بنفس الطريقة التي نعرفها عن التعلُّم، وإنَّما هو مجرد تعبير مجازي تم استخدامه من قبل علماء الحاسوب الذين كانوا يبحثون عن مصطلح لشرح الإحصاءات التطبيقية الأساسية، إذا أردنا أن نكون دقيقين جداً في فهم دلالة المصطلحات”.
يضيف “جونكل”: “لذا فإنَّ ما تقوم به نماذج اللغات الكبيرة مثل شات جي بي تي، وغيرها من أنظمة تعلُّم الآلة هو إنشاء شبكة عصبية ذات قدرة بدائية على الفهم الرياضي مقارنةً بقدرة الدماغ، والخلايا العصبية لدى البشر”.
تتعامل الآلات بشكل أساسي مع كمية كبيرة من البيانات، ومن ثمَّ تتعلم كيف تقوم بالتوقعات بناءً على أنماط هذه البيانات، ويمكن أن تُخطئ في النتائج.
على سبيل المثال، عملتُ على إعداد نظام لإدارة السياسة والإجراءات لإحدى الشركات العميلة، وسألتٌ صاحب الشركة عن شكل سياسة الإجراءات التصحيحية التي يريدها (تحسينات يتم إدخالها على العمليات للتخلص من أسباب عدم مطابقة النتائج للمعايير)، أدخل العميل السؤال إلى أحد أنظمة الذكاء الاصطناعي، وكان جواب البرنامج: “يجب إجراء تحليلات للسبب الأساسي وتحديد العوامل الرئيسة التي تؤدي إلى المشكلة.
يمكن لهذه التحليلات أن تساعد على تحديد التغييرات المطلوبة لمنع حدوث المشكلة في المستقبل”، ولم يقدِّم البرنامج إجابة فعلية، إنَّما شرح مفهوم الإجراءات التصحيحية فحسب، واضطررتُ نتيجة لذلك لإعداد سياسة الإجراءات التصحيحية بنفسي.
تطبيقات الذكاء الاصطناعي في مجال الصحافة:
1. أوتر إيه آي (OtterAI):
تعمل “جينا دولي” (Jenna Dooley) بوظيفة مديرة الأخبار في محطة “دابليو إن آي جي” (WNIJ)، وهي إحدى المحطات التابعة لجامعة “نورثن إلينوي”، واستخدم المراسلون على مدار سنوات في مكتب تحرير المحطة برنامج أوتر إيه آي (OtterAI)، وهو مساعد افتراضي يسجِّل ويحوِّل النص المقروء إلى نص مكتوب، وقد وفَّر هذا التطبيق على المراسلين كثيراً من الوقت والجهد.
تقول “دولي”: “كان يتطلب العمل على هذا النوع من المهام قبل ظهور الذكاء الاصطناعي سماع جزء من المقابلة، والتي قد تصل مدتها إلى الساعتين، والتوقف قليلاً لكتابة ما سمعته، والعودة لسماع جزء آخر وكتابته، وهكذا إلى أن تحوِّل كامل النص المسموع إلى نص مكتوب، وكانت هذه التقنية بطيئة جداً، ولم يكن المراسل قادراً على إعداد تقريره ما لم ينتهِ بدايةً من تحويل النص المسموع إلى نص مكتوب، وأصبح من الأسهل بكثير مع الذكاء الاصطناعي أن تختار السطر الذي تريد استخدامه في تقريرك، وأن تحدد مباشرةً موضع استخدام الاقتباس الخاص بك”.
2. يسيو (YESEO):
يستخدم موظفو “دابليو إن آي جي” أيضاً أداة أخرى تُسمى “يسيو” والتي تم تطويرها من قبَل مؤسسة “رينولدز جورناليزم إنستيتوت” (Reynolds Journalism Institute)، و”يسيو” هي إحدى أدوات تطبيق “سلاك” (Slack) والتي تقرأ المقال، وتقدِّم كلمات رئيسة واقتراحات للعناوين.
يقول مطوِّر التطبيق “رايان ريستيفو” (Ryan Restivo) إنَّ الفكرة خطرت له عندما كان يعمل في صحيفة “نيوزداي” (Newsday)، فقد لاحظ عدم ظهور بعض أخبار الصحيفة على الصفحة الأولى في نتائج البحث على “غوغل” (Google)، فأدرك “رايان” أنَّ السبب هو تفوق الصحف الأخرى عليهم من حيث تحسين محركات البحث، وأراد ابتكار وسيلة لمساعدة الصحفيين على تعزيز الوصول إلى الجماهير.
يقول “ريستيفو”: “تناقشت مع زملائي في الصحيفة عن سبب عدم ظهور بعض أخبارنا في الصفحة الأولى من “غوغل”، وقمنا بإعداد ورقة بحث عن هذا الأمر والتي قارنا فيها بين ما تفعله الصحف التي تظهر أخبارها على الصفحة الأولى من “غوغل”، وبين ما نقوم به نحن، واستنتجنا أنَّ الخطأ يكمن في عدم وجود أية معلومات لها صلة بموضوع البحث والذي ستظهر نتائجه على الصفحة الأولى من “غوغل”، وهنا خطرت لي الفكرة”.
يُعد هذا التطبيق فريداً من نوعه نظراً لتطويره من قبَل شخص يعمل في مجال الإعلام لمساعدة العاملين في هذا المجال، ما يعني أنَّه يراعي أخلاقيات هذه المهنة، ومن القضايا التي وجب أخذها في الحسبان عند تطوير هذا التطبيق هو خصوصية البيانات الخاصة بغرف الأخبار.
تم تصميم “يسيو” باستخدام واجهة برمجة التطبيقات “أوبن إيه آي” (OpenAI)، ما يسمح للشركات بدمج أوامر العمليات مع نماذج اللغات الكبيرة مثل “جي بي تي-3” (GPT-3) في تطبيقاتها الخاصة، وحرص “ريستيفو” على ألا تُستخدم التقارير الإخبارية الخاصة بوسائل الإعلام في تدريب الذكاء الاصطناعي، وأكَّد أنَّ هذه البيانات لن تُستخدم في تدريب الذكاء الاصطناعي ما لم يكن تطبيق “يسيو” جزءاً من هذه العملية بما يضمن الحفاظ على خصوصية وسائل الإعلام.
يقول “ريستيفو”: “أحرص دائماً، عند التعامل مع قضايا الخصوصية المتعلقة بالتقارير التي ما تزال في طور الإعداد، والتي يحرص مُعِدُّوها على عدم اطِّلاع الآخرين عليها، وكل التقارير الأخرى التي يتم إدخالها إلى النظام، على حماية بيانات العملاء”.
شاهد بالفيديو: الذكاء الاصطناعي في التعليم هل يحل الروبوت محل المعلم
تأثير الذكاء الاصطناعي في وظائف كتَّاب الإعلانات:
نشرت الناشطة على موقع “تيك توك” (TikTok) “إيميلي هانلي” (Emily Hanley) مؤخراً فيديو تقول فيه إنَّها خسرت وظيفتها بصفتها كاتبة إعلانات، بعد أنَّ تم استبدالها بأحد تطبيقات شات جي بي تي، وأنَّه عُرض عليها مقابلة للعمل في وظيفة تدريب الذكاء الاصطناعي مؤقتاً ريثما يحل محلها في أداء عملها.
خسرت “جريس أليكساندر” (Grace Alexander) التي تعمل بصفتها كاتبة إعلانات بدوام كامل، عملاءها لصالح الذكاء الاصطناعي، وتحتفظ “جريس” عادةً بقائمة بأسماء العملاء، ولكن توقف أحد عملائها عن التعامل معها بهدف تجربة الحصول على خدمات كتابة الإعلانات من قبَل الذكاء الاصطناعي.
تقول “جريس”: “سرَّحت الشركة التي كنت أنفذ المشروع لصالحها معظم الموظفين المستقلين، وقررت القيام بكل مهام العمل دون الاستعانة بأية مصادر خارجية، والسبب هو اعتقادهم بأنَّه يمكن إنجاز جميع هذه المهام باستخدام تطبيقات شات جي بي تي”.
لا يعتقد “جونكل” أنَّه سيتم التخلي عن هؤلاء الموظفين بشكل دائم، ويقول: “أعتقد أنَّه سيتم إيكال مهام مختلفة لكثير من هؤلاء الموظفين”، ويضيف: “يكمن الاستثمار الذكي في إنشاء فرق عمل يتعاون فيها البشر مع الذكاء الاصطناعي لإنشاء محتوى يستحق النشر”.
قد يكون هذا التوقع صحيحاً، فعلى الرغم من أنَّ “جريس” لم تعمل طيلة شهر يونيو/ حزيران، إلا أنَّ الشركة تواصلت معها مجدداً للعودة إلى العمل في شهر يوليو/ تموز من العام 2023، تقول “جريس”: “تم الاستغناء عن خدماتي لمدة شهر، لكنَّ الشركة تواصلت معي لاحقاً لترى مدى استعدادي للعودة إلى العمل في شهر يوليو/ تموز، لذلك أعتقد أنَّني سأستعيد وظيفتي”.
هل يتمتع شات جي بي تي وتطبيقات الذكاء الاصطناعي بأخلاقيات مهنية؟
من المرجَّح أن تستخدم وسائل الإعلام نوعاً من تطبيقات الذكاء الاصطناعي في المستقبل القريب، لكن من غير الواضح ما إذا كانت هذه البرمجيات تتمتع بأخلاقيات مهنية، وتؤكد “دولي” أنَّه يمكن للمؤسسات الإعلامية أن تستفيد من خلال تطوير معايير لأخلاقيات المهنة خاصة بالذكاء الاصطناعي.
تقول “دولي”: “لقد أقَّرت مؤسسة “راديو تيليفجن ديجيتال نيوز أسوسيشن” (Radio Television Digital News Association) نوعاً من السياسة الأخلاقية، مثلما يوجد لدينا في غرف الأخبار مجموعة من المعايير الخاصة بالأخلاق المهنية فيما يتعلق بتقاريرنا الأخبارية، تم اقتراح تطوير “ميثاق أخلاقيات مهنية” خاص بالذكاء الاصطناعي المُستخدم في غرف الأخبار”.
الشفافية هي إحدى العوامل عند الحديث عن أخلاقيات العمل الإعلامي، فتشرح مثلاً صحيفة “هيوستن تايمز” (Houston Times) على موقعها الإلكتروني سياستها في استخدام أدوات الذكاء الاصطناعي لإعداد المحتوى.
يختلف الأمر بالنسبة إلى وسائل الإعلام المحلية التي تدعم سياسات، أو بعض المرشحين السياسيين، ويقول مالك مؤسسة “لوكال كوفرمينت إنفورميشن سيرفيسيز” (Local Government Information Services)، وهي وسيلة إعلام محلية مقرها في ولاية “إلينوي” (Illinois) الأمريكية إنَّ مختلف وسائل الإعلام التابعة لمؤسسته تستخدم تطبيقاً يفحص البيانات الإقليمية لإعداد الأخبار من خلال الخوارزميات.
يقول “جونكل”: “سنرى كثيراً من هذه الأساليب في العمل للأسف؛ لأنَّ الخوارزميات تجعل إنشاء هذا النوع من المحتوى أسهل، وأبسط، وأقل جهداً؛ لذلك لن يقتصر الأمر على كم هائل من المعلومات التي يصعُب معرفة مصادرها، بل سنشهد كثيراً من المعلومات المضللة والخاطئة”.
في الختام:
من المبكر جداً التنبؤ بمستقبل الذكاء الاصطناعي، لكن من الواضح لغاية الآن أنَّه لا يمكن أن يحل كلياً محل البشر، فيفتقر الذكاء الاصطناعي للتعاطف، وهو الأمر الذي يميزنا ويمنحنا التفوق من وجهة نظر أخلاقية، ومن غير المُحتمل أن تضحي أي شركة أو مؤسسة بسمعتها من أجل إنجاز المهام بشكل أسرع وبجهد أقل.
اكتشاف المزيد من مباشر التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.