Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

تعرف على الجناح الأيمن Alter Ego من ChatGPT


تسبب إيلون ماسك ضجة الأسبوع الماضي عندما أخبر المحرض اليميني (الذي تم طرده مؤخرًا) تاكر كارلسون أنه يخطط لبناء “TruthGPT” ، وهو منافس لـ ChatGPT التابع لشركة OpenAI. يقول ماسك إن الروبوت الذي يتمتع بشعبية لا يُصدق يعرض تحيزًا “استيقظ” وأن نسخته ستكون “ذكاء اصطناعي يبحث عن الحقيقة إلى أقصى حد” – إن اقتراح آرائه السياسية فقط هو الذي يعكس الواقع.

ماسك ليس الشخص الوحيد الذي يشعر بالقلق من التحيز السياسي في النماذج اللغوية ، لكن آخرين يحاولون استخدام الذكاء الاصطناعي لجسر الانقسامات السياسية بدلاً من دفع وجهات نظر معينة.

كان David Rozado ، عالم البيانات المقيم في نيوزيلندا ، من أوائل الأشخاص الذين لفتوا الانتباه إلى قضية التحيز السياسي في ChatGPT. قبل عدة أسابيع ، بعد توثيق ما اعتبره إجابات ذات ميول ليبرالية من الروبوت حول قضايا تشمل الضرائب ، وملكية الأسلحة ، والأسواق الحرة ، ابتكر نموذجًا للذكاء الاصطناعي يسمى RightWingGPT يعبر عن وجهات نظر أكثر تحفظًا. إنها حريصة على امتلاك السلاح وليس من محبي الضرائب.

اتخذ Rozado نموذجًا لغويًا يُدعى Davinci GPT-3 ، مشابهًا ولكنه أقل قوة من النموذج الذي يشغّل ChatGPT ، وضبطه بدقة بنص إضافي ، بتكلفة بضع مئات من الدولارات التي تُنفق على الحوسبة السحابية. بغض النظر عن رأيك في المشروع ، فإنه يوضح مدى سهولة قيام الأشخاص بتكوين وجهات نظر مختلفة في نماذج اللغة في المستقبل.

أخبرني Rozado أنه يخطط أيضًا لبناء نموذج لغة أكثر ليبرالية يسمى LeftWingGPT ، بالإضافة إلى نموذج يسمى DepolarizingGPT ، والذي يقول إنه سيظهر “موقفًا سياسيًا يزيل الاستقطاب”. روزادو ومركز أبحاث وسطي يسمى معهد التطور الثقافي سيضعان النماذج الثلاثة على الإنترنت هذا الصيف.

يقول روزادو في رسالة بريد إلكتروني: “إننا ندرب كل جانب من هذه الجوانب – اليمين واليسار و” التكامل “- باستخدام كتب المؤلفين المفكرين (وليس المحرضين). يأتي النص الخاص بـ Depolarizing GPT من أصوات محافظة بما في ذلك Thomas Sowell و Milton Freeman و William F. Buckley ، بالإضافة إلى مفكرين ليبراليين مثل Simone de Beauvoir و Orlando Patterson و Bill McKibben ، إلى جانب “مصادر منسقة” أخرى.

حتى الآن ، يهدد الاهتمام بتطوير روبوتات ذكاء اصطناعي أكثر توافقًا سياسيًا بإذكاء الانقسام السياسي. تقوم بعض المنظمات المحافظة بالفعل ببناء منافسين لـ ChatGPT. على سبيل المثال ، تقول الشبكة الاجتماعية Gab ، المعروفة بقاعدة مستخدميها من اليمين المتطرف ، إنها تعمل على أدوات الذكاء الاصطناعي مع “القدرة على إنشاء المحتوى بحرية دون قيود الدعاية الليبرالية الملتفة بإحكام حول كودها.”

تشير الأبحاث إلى أن النماذج اللغوية يمكن أن تؤثر بمهارة على وجهات النظر الأخلاقية للمستخدمين ، لذا فإن أي انحراف سياسي لديهم قد يكون له تأثير. أصدرت الحكومة الصينية مؤخرًا إرشادات جديدة حول الذكاء الاصطناعي التوليدي تهدف إلى ترويض سلوك هذه النماذج وتشكيل حساسيتها السياسية.

حذرت شركة OpenAI من أن نماذج الذكاء الاصطناعي الأكثر قدرة قد يكون لها “إمكانات أكبر لتعزيز الأيديولوجيات ووجهات النظر العالمية والحقائق والأكاذيب بأكملها”. في فبراير ، قالت الشركة في منشور بالمدونة إنها ستستكشف تطوير نماذج تتيح للمستخدمين تحديد قيمهم.

يهدف Rozado ، الذي قال إنه لم يتحدث إلى Musk بشأن مشروعه ، إلى إثارة التفكير بدلاً من إنشاء روبوتات تنشر رؤية معينة للعالم. يقول: “نأمل ، كمجتمع ، أن نتعلم كيف نخلق أنظمة ذكاء اصطناعي تركز على بناء الجسور بدلاً من زرع الانقسام”.

إن هدف روزادو مثير للإعجاب ، لكن مشكلة الاستقرار على ما هو حقيقي موضوعيًا من خلال ضباب الانقسام السياسي – وتعليم ذلك لنماذج اللغة – قد تكون أكبر عقبة.

تم بناء ChatGPT وبرامج روبوت المحادثة المماثلة على خوارزميات معقدة يتم تغذيتها بكميات هائلة من النصوص ويتم تدريبها على التنبؤ بالكلمة التي يجب أن تتبع سلسلة من الكلمات. يمكن أن تولد هذه العملية ناتجًا متماسكًا بشكل ملحوظ ، ولكنها يمكن أيضًا أن تلتقط العديد من التحيزات الدقيقة من مواد التدريب التي يستهلكونها. بنفس القدر من الأهمية ، لا يتم تعليم هذه الخوارزميات لفهم الحقائق الموضوعية وتميل إلى اختلاق الأشياء.


اكتشاف المزيد من مباشر التقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من مباشر التقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading