جوجل غير مستخدمة للعب اللحاق بالركب في الذكاء الاصطناعي أو البحث ، لكن الشركة اليوم تسعى جاهدة لإظهار أنها لم تفقد ميزتها. لقد بدأ إطلاق برنامج chatbot يسمى Bard لخوض معركة مع ChatGPT المشهور بشكل مثير.
سوف يرد Bard ، مثل ChatGPT ، على أسئلة حول مجموعة لا تنضب من الموضوعات ويناقشها بما يبدو أحيانًا وكأنه فهم بشري. عرضت Google على WIRED العديد من الأمثلة ، بما في ذلك طلب أنشطة لطفل مهتم بالبولينج وطلب 20 كتابًا لقراءتها هذا العام.
يشبه Cool أيضًا ChatGPT من حيث أنه في بعض الأحيان يصنع الأشياء ويتصرف بشكل غريب. كشفت Google عن مثال على أنها تفتقد اسم نبات مقترح للزراعة في الداخل. يقول إيلي كولينز ، نائب رئيس الأبحاث في Google الذي يعمل على Bard: “تعد Bard تجربة مبكرة ، وهي ليست مثالية ، وستفعل الأمور بشكل خاطئ من حين لآخر”.
تقول Google إنها أتاحت Cold إلى عدد صغير من المختبرين. اعتبارًا من اليوم ، سيتمكن أي شخص في الولايات المتحدة والمملكة المتحدة من التقدم بطلب للوصول.
يمكن الوصول إلى الروبوت عبر صفحة الويب الخاصة به ومنفصل عن واجهة البحث العادية في Google. سيقدم ثلاث إجابات لكل استعلام – اختيار تصميم يهدف إلى إقناع المستخدمين بأن Bard تولد إجابات سريعة وقد ترتكب أخطاء في بعض الأحيان.
ستقدم Google أيضًا استعلامًا موصى به لبحث ويب تقليدي أسفل كل رد بارد. وسيكون من الممكن للمستخدمين تقديم ملاحظات حول إجاباته لمساعدة Google على تحسين الروبوت من خلال النقر فوق علامة الإعجاب أو الإبهام لأسفل ، مع خيار كتابة ملاحظات أكثر تفصيلاً.
تقول Google إن المستخدمين الأوائل لـ Bard وجدوا أنها مساعدة مفيدة لتوليد الأفكار أو النصوص. يقر كولينز أيضًا أن البعض نجح في جعله يسيء التصرف ، على الرغم من أنه لم يحدد كيف أو بالضبط ما هي القيود التي حاولت Google وضعها على الروبوت.
يُظهر كل من Bard و ChatGPT إمكانات ومرونة هائلة ولكنهما أيضًا لا يمكن التنبؤ بهما ولا يزالان في مرحلة مبكرة من التطوير. يمثل هذا لغزًا للشركات التي تأمل في الحصول على ميزة في تطوير وتسخير التكنولوجيا. بالنسبة لشركة مثل Google ذات المنتجات الراسخة ، يكون التحدي صعبًا بشكل خاص.
يستخدم كل من روبوتات المحادثة نماذج ذكاء اصطناعي قوية تتنبأ بالكلمات التي يجب أن تتبع جملة معينة بناءً على الأنماط الإحصائية المستقاة من كميات هائلة من بيانات التدريب النصية. اتضح أن هذه طريقة فعالة بشكل لا يصدق لمحاكاة ردود البشر على الأسئلة ، ولكنها تعني أن الخوارزميات تقوم أحيانًا بتكوين الحقائق أو “الهلوسة” – وهي مشكلة خطيرة عندما يُفترض أن يساعد الروبوت المستخدمين في العثور على المعلومات أو البحث الويب.
يمكن للروبوتات على غرار ChatGPT أيضًا تجسيد التحيزات أو اللغة الموجودة في الزوايا المظلمة لبيانات التدريب الخاصة بهم ، على سبيل المثال حول العرق والجنس والعمر. كما أنهم يميلون إلى عكس الطريقة التي يخاطب بها المستخدم ، مما يجعلهم يتصرفون بسهولة كما لو كان لديهم عواطف ويكونون عرضة للوقوع في دفعهم لقول أشياء غريبة وغير مناسبة.
اكتشاف المزيد من مباشر التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.