أوائل فبراير ، أعلنت Google أولاً ، ثم Microsoft ، عن إصلاحات كبيرة لمحركات البحث الخاصة بها. لقد أنفق عملاقا التكنولوجيا كثيرًا على بناء أو شراء أدوات الذكاء الاصطناعي التوليدية ، والتي تستخدم نماذج لغوية كبيرة لفهم الأسئلة المعقدة والرد عليها. يحاولون الآن دمجها في البحث ، على أمل أن يمنحوا المستخدمين تجربة أكثر ثراءً ودقة. أعلنت شركة البحث الصينية بايدو أنها ستحذو حذوها.
لكن الإثارة حول هذه الأدوات الجديدة يمكن أن تخفي سرًا قذرًا. من المرجح أن يتطلب السباق لبناء محركات بحث عالية الأداء تعمل بالذكاء الاصطناعي زيادة هائلة في قوة الحوسبة ، ومعها زيادة هائلة في كمية الطاقة التي تتطلبها شركات التكنولوجيا وكمية الكربون التي تخففها.
يقول آلان وودوارد ، أستاذ الأمن السيبراني في جامعة سوري في المملكة المتحدة: “هناك بالفعل موارد ضخمة تشارك في فهرسة محتوى الإنترنت والبحث فيه ، لكن دمج الذكاء الاصطناعي يتطلب نوعًا مختلفًا من القوة النارية”. يتطلب قوة معالجة بالإضافة إلى التخزين والبحث الفعال. في كل مرة نرى فيها تغييرًا تدريجيًا في المعالجة عبر الإنترنت ، نرى زيادات كبيرة في موارد الطاقة والتبريد التي تتطلبها مراكز المعالجة الكبيرة. أعتقد أن هذه يمكن أن تكون مثل هذه الخطوة “.
إن تدريب نماذج اللغات الكبيرة (LLMs) ، مثل تلك التي تدعم ChatGPT من OpenAI ، والتي ستعمل على تشغيل محرك بحث Bing المعزز من Microsoft ، وما يعادله من Google ، Bard ، يعني تحليل الروابط وحوسبتها ضمن كميات هائلة من البيانات ، وهذا هو السبب في أنهم يميلون يتم تطويرها من قبل شركات ذات موارد كبيرة.
يقول Carlos Gómez-Rodriguez ، عالم الكمبيوتر بجامعة Coruña في إسبانيا: “يتطلب تدريب هذه النماذج قدرًا هائلاً من القوة الحاسوبية”. “في الوقت الحالي ، يمكن لشركات التكنولوجيا الكبرى فقط تدريبهم.”
على الرغم من أن شركة OpenAI أو Google لم تذكر تكلفة الحوسبة لمنتجاتها ، إلا أن تحليل الطرف الثالث الذي أجراه الباحثون يقدر أن تدريب GPT-3 ، الذي يعتمد عليه ChatGPT جزئيًا ، استهلك 1،287 ميجاوات في الساعة ، وأدى إلى انبعاثات أكثر من 550 طنًا من مكافئ ثاني أكسيد الكربون – نفس الكمية التي يستخدمها شخص واحد في 550 رحلة ذهابًا وإيابًا بين نيويورك وسان فرانسيسكو.
“الأمر ليس بهذا السوء ، ولكن بعد ذلك عليك أن تأخذ ذلك في الاعتبار [the fact that] يقول جوميز رودريغيز: “ليس عليك فقط تدريبه ، ولكن عليك تنفيذه وخدمة ملايين المستخدمين”.
هناك أيضًا فرق كبير بين استخدام ChatGPT – الذي يقدر بنك الاستثمار UBS به 13 مليون مستخدم يوميًا – كمنتج مستقل ، ودمجه في Bing ، الذي يعالج نصف مليار عملية بحث كل يوم.
يعتقد مارتن بوشار ، الشريك المؤسس لشركة مركز البيانات الكندية QScale ، أنه بناءً على قراءته لخطط Microsoft و Google للبحث ، فإن إضافة الذكاء الاصطناعي التوليدي إلى العملية سيتطلب “أربعة أو خمسة أضعاف الحوسبة على الأقل لكل بحث” كحد أدنى. ويشير إلى أن ChatGPT توقف حاليًا عن فهمها للعالم في أواخر عام 2021 ، كجزء من محاولة لخفض متطلبات الحوسبة.
من أجل تلبية متطلبات مستخدمي محرك البحث ، يجب تغيير ذلك. يقول: “إذا كانوا سيعيدون تدريب النموذج كثيرًا وإضافة المزيد من المعلمات والأشياء ، فسيكون مقياسًا مختلفًا تمامًا للأشياء”.
اكتشاف المزيد من مباشر التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.