الأسبوع الماضي استدعى مركز التكنولوجيا الإنسانية أكثر من 100 من القادة في مجال التمويل والعمل الخيري والصناعة والحكومة والإعلام إلى غرفة كيسنجر في مركز بالي للإعلام في مدينة نيويورك لمعرفة كيف يمكن للذكاء الاصطناعي أن يقضي على البشرية. بدأ المتحدثان ، تريستان هاريس وآزا راسكين ، عرضهما التقديمي وقت الموت بشريحة التي تقرأ: “ما هي الأسلحة النووية للعالم المادي … الذكاء الاصطناعي لكل شيء آخر.”
قيل لنا أن هذا التجمع كان تاريخيًا ، واحدًا سنتذكره في السنوات القادمة ، حيث من المفترض أن الفرسان الأربعة في نهاية العالم ، تحت ستار Bing chatbots ، سوف ينزلون ليحلوا محل ذكائنا بذكائهم. لقد استحضرت المشهد في أفلام الخيال العلمي القديمة – أو المهزلة الأحدث لا تبحث—حيث يكتشف العلماء خطرًا ويحاولون هز أكتافهم من السكان النائمين لشرح ذلك هذا التهديد القاتل يتجه نحونا ، وسنموت إذا لم تفعل شيئًا الآن.
على الأقل هذا ما يبدو أن هاريس وراسكين قد خلصوا إليه بعد ، في حساباتهم ، أن بعض الأشخاص العاملين داخل الشركات التي تعمل على تطوير الذكاء الاصطناعي قد اتصلوا بالمركز مع مخاوف من أن المنتجات التي كانوا يصنعونها تبدو خطيرة ، قائلين إن هناك حاجة إلى قوة خارجية لمنع وقوع كارثة. استشهد مؤسسو المركز مرارًا وتكرارًا بإحصاء من دراسة استقصائية وجدت أن نصف باحثي الذكاء الاصطناعي يعتقدون أن هناك احتمالًا بنسبة 10٪ على الأقل أن يتسبب الذكاء الاصطناعي في انقراض البشر.
في هذه اللحظة من الضجيج وعدم اليقين بشأن الذكاء الاصطناعي ، اختار هاريس وراسكين نفسيهما كما هو متوقع ليكونا من يكسر الزجاج لسحب الإنذار. إنها ليست المرة الأولى التي يطلقون فيها صفارات الإنذار. تحول مصممو التكنولوجيا إلى خبراء في التواصل الإعلامي ، وقد شاركوا في تأسيس المركز لإعلام العالم بأن وسائل التواصل الاجتماعي تشكل تهديدًا للمجتمع. جاء التعبير النهائي عن مخاوفهم في مشاركتهم في فيلم وثائقي شهير على Netflix النُطَف المَنَويّة فيلم رعب يسمى المعضلة الاجتماعية. في حين أن الفيلم خالي من الفروق الدقيقة وهستيري إلى حد ما ، إلا أنني أتفق مع العديد من شكاويها حول جذب انتباه وسائل التواصل الاجتماعي ، والحوافز لتقسيمنا ، وتسليح البيانات الخاصة. تم تقديمها من خلال المقابلات والإحصاءات والرسوم البيانية. لكن الوثيقة نسفت مصداقيتها من خلال دمجها في قصة خيالية مضللة مباشرة من الجنون المبرديُظهر كيف يتم تدمير عائلة (مكياج) صحية في قلب البلاد – طفل تطرف وسجن وآخر مكتئب – من خلال منشورات فيسبوك.
يميز هذا الجانب الأحادي أيضًا الحملة الجديدة للمركز المسماة ، خمن ماذا ، معضلة الذكاء الاصطناعي. (المركز خجول بشأن ما إذا كان هناك مستند Netflix آخر قيد العمل.) مثل المعضلة السابقة ، فإن الكثير من النقاط التي ذكرها هاريس وراسكين صالحة – مثل عدم قدرتنا الحالية على فهم كيفية إنتاج برامج الروبوت مثل ChatGPT لمخرجاتها تمامًا. لقد قدموا أيضًا ملخصًا رائعًا لكيفية تحول الذكاء الاصطناعي سريعًا إلى قوة كافية للقيام بالواجبات المنزلية ، وتعزيز البحث في Bing ، والتعبير عن الحب لـ نيويورك تايمز كاتب العمود كيفن روز ، من بين أمور أخرى.
لا أريد استبعاد السيناريو الأسوأ تمامًا الذي طرحه هاريس وراسكين. هذه الإحصائية المثيرة للقلق حول اعتقاد خبراء الذكاء الاصطناعي بأن تقنيتهم لديها فرصة لقتلنا جميعًا ، في الواقع تحقق نوعًا ما. في أغسطس 2022 ، دعت منظمة تأثيرات الذكاء الاصطناعي تم الوصول إلى 4271 شخصًا قاموا بتأليف أو تأليف أوراق تم تقديمها في مؤتمرين للذكاء الاصطناعي ، وطلبوا منهم ملء استطلاع. استجاب حوالي 738 فقط ، وكانت بعض النتائج متناقضة بعض الشيء ، ولكن ، بالتأكيد ، رأى 48 في المائة من المستجيبين فرصة بنسبة 10 في المائة على الأقل لنتيجة سيئة للغاية ، وهي انقراض البشر. يجب أن أذكر أن تأثيرات الذكاء الاصطناعي مدعومة جزئيًا من قبل مركز الإيثار الفعال والمنظمات الأخرى التي أبدت اهتمامًا بسيناريوهات الذكاء الاصطناعي البعيدة. على أي حال ، لم يسأل الاستطلاع المؤلفين لماذا ، إذا كانوا يعتقدون أن الكارثة ممكنة ، كانوا يكتبون أوراقًا لتعزيز هذا العلم المفترض تدميره.
اكتشاف المزيد من مباشر التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.