Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

يحذر الخبراء من أن الذكاء الاصطناعي الجامح هو خطر الانقراض


الشخصيات الرائدة في وقع تطوير أنظمة الذكاء الاصطناعي ، بما في ذلك الرئيس التنفيذي لشركة OpenAI Sam Altman والرئيس التنفيذي لشركة Google DeepMind Demis Hassabis ، بيانًا يحذر من أن التكنولوجيا التي يبنونها قد تشكل يومًا ما تهديدًا وجوديًا للبشرية يمكن مقارنته بالحرب النووية والأوبئة.

“التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى ، مثل الأوبئة والحرب النووية” ، جاء في بيان من جملة واحدة ، صدر اليوم عن مركز أمان الذكاء الاصطناعي ، وهو منظمة غير ربحية.

لطالما ناقش الفلاسفة فكرة أن الذكاء الاصطناعي قد يصبح من الصعب السيطرة عليه ، وأن يدمر البشرية إما عن طريق الخطأ أو عن عمد. ولكن في الأشهر الستة الماضية ، بعد بعض القفزات المفاجئة والمثيرة للقلق في أداء خوارزميات الذكاء الاصطناعي ، أصبحت المشكلة أكثر انتشارًا وجدية.

بالإضافة إلى ألتمان وحسابيس ، وقع البيان داريو أمودي ، الرئيس التنفيذي لشركة Anthropic ، وهي شركة ناشئة مكرسة لتطوير الذكاء الاصطناعي مع التركيز على السلامة. ومن الموقعين الآخرين جيفري هينتون ويوشوا بنجيو – اثنان من ثلاثة أكاديميين حصلوا على جائزة تورينج لعملهم في التعلم العميق ، والتكنولوجيا التي تدعم التطورات الحديثة في التعلم الآلي والذكاء الاصطناعي – بالإضافة إلى العشرات من رواد الأعمال والباحثين الذين يعملون على أحدث تقنيات الذكاء الاصطناعي. . مشاكل.

يقول ماكس تيجمارك ، أستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا ومدير معهد فيوتشر أوف لايف ، وهو مؤسسة غير ربحية تركز على المخاطر طويلة المدى التي يشكلها الذكاء الاصطناعي: “البيان مبادرة عظيمة”. في مارس ، نشر معهد Tegmark خطابًا يدعو إلى التوقف لمدة ستة أشهر حول تطوير خوارزميات الذكاء الاصطناعي المتطورة بحيث يمكن تقييم المخاطر. وقع الخطاب المئات من الباحثين والمديرين التنفيذيين لمنظمة العفو الدولية ، بما في ذلك إيلون ماسك.

يقول Tegmark إنه يأمل أن يشجع البيان الحكومات وعامة الناس على أخذ المخاطر الوجودية للذكاء الاصطناعي بجدية أكبر. ويضيف: “النتيجة المثالية هي أن خطر انقراض الذكاء الاصطناعي يصبح سائدًا ، مما يمكّن الجميع من مناقشته دون خوف من السخرية”.

قارن دان هندريكس ، مدير مركز أمان الذكاء الاصطناعي ، لحظة القلق الحالية بشأن الذكاء الاصطناعي بالنقاش بين العلماء الذي أشعله صنع أسلحة نووية. وقال هندريكس في اقتباس صدر مع بيان منظمته: “نحتاج إلى إجراء المحادثات التي كان يجريها العلماء النوويون قبل صنع القنبلة الذرية”.

ترتبط نغمة التنبيه الحالية بعدة قفزات في أداء خوارزميات الذكاء الاصطناعي المعروفة باسم نماذج اللغات الكبيرة. تتكون هذه النماذج من نوع معين من الشبكات العصبية الاصطناعية التي يتم تدريبها بشكل هائل على كميات النص المكتوب من قبل الإنسان للتنبؤ بالكلمات التي يجب أن تتبع سلسلة معينة. عند تغذية البيانات الكافية ، والتدريب الإضافي في شكل ردود فعل من البشر على الإجابات الجيدة والسيئة ، فإن نماذج اللغة هذه قادرة على إنشاء نص والإجابة على الأسئلة ببلاغة ملحوظة ومعرفة واضحة – حتى لو كانت إجاباتهم غالبًا مليئة بالأخطاء.

لقد أثبتت نماذج اللغات هذه أنها متماسكة وقادرة بشكل متزايد حيث تم تزويدها بالمزيد من البيانات وقوة الكمبيوتر. أقوى نموذج تم إنشاؤه حتى الآن ، GPT-4 من OpenAI ، قادر على حل المشكلات المعقدة ، بما في ذلك تلك التي يبدو أنها تتطلب بعض أشكال التجريد والاستدلال المنطقي.


اكتشاف المزيد من مباشر التقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من مباشر التقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading