“تتغير المعرفة والممارسات الطبية وتتطور بمرور الوقت ، وليس هناك من يخبرنا أين في الجدول الزمني للطب ، تسحب ChatGPT معلوماتها عند ذكر علاج نموذجي” ، كما تقول. “هل هذه المعلومات حديثة أم قديمة؟”
يحتاج المستخدمون أيضًا إلى الحذر من كيفية قيام الروبوتات على غرار ChatGPT بتقديم معلومات ملفقة أو “مهلوسة” بطريقة سطحية بطلاقة ، مما قد يؤدي إلى أخطاء خطيرة إذا لم يتحقق الشخص من استجابات الخوارزمية. ويمكن للنص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أن يؤثر على البشر بطرق خفية. خلصت دراسة نُشرت في كانون الثاني (يناير) ، ولم تتم مراجعتها من قبل الأقران ، والتي طرحت محفزات أخلاقية لـ ChatGPT ، إلى أن روبوت المحادثة يصنع مستشارًا أخلاقيًا غير متسق يمكنه التأثير على صنع القرار البشري حتى عندما يعرف الناس أن النصيحة تأتي من برمجيات الذكاء الاصطناعي.
كونك طبيب يعني أكثر بكثير من مجرد اجترار المعرفة الطبية الموسوعية. في حين أن العديد من الأطباء متحمسون لاستخدام ChatGPT في مهام منخفضة الخطورة مثل تلخيص النص ، يشعر بعض علماء الأخلاقيات الحيوية بالقلق من أن الأطباء سيتجهون إلى الروبوت للحصول على المشورة عندما يواجهون قرارًا أخلاقيًا صعبًا مثل ما إذا كانت الجراحة هي الخيار الصحيح لمريض يعاني من انخفاض احتمال النجاة أو الشفاء.
يقول جيمي ويب ، عالم أخلاقيات علم الأحياء في مركز تكنومورال فيوتشرز بجامعة إدنبرة: “لا يمكنك الاستعانة بمصادر خارجية أو أتمتة هذا النوع من العمليات لنموذج ذكاء اصطناعي توليدي”.
في العام الماضي ، اكتشف ويب وفريق من علماء النفس الأخلاقيين ما يتطلبه بناء “مستشار أخلاقي” مدعوم من الذكاء الاصطناعي لاستخدامه في الطب ، مستوحى من بحث سابق اقترح الفكرة. خلص ويب وزملاؤه إلى أنه سيكون من الصعب على مثل هذه الأنظمة الموازنة بشكل موثوق بين المبادئ الأخلاقية المختلفة وأن الأطباء والموظفين الآخرين قد يعانون من “فقدان المهارات الأخلاقية” إذا كانوا سيعتمدون بشكل مفرط على الروبوت بدلاً من التفكير من خلال القرارات الصعبة بأنفسهم . .
يشير ويب إلى أنه تم إخبار الأطباء من قبل أن الذكاء الاصطناعي سيحدث ثورة في عملهم ، لكنهم سيصابون بخيبة أمل فقط. بعد خطر! في عامي 2010 و 2011 ، تحول قسم Watson في IBM إلى علم الأورام وقدم ادعاءات حول فعالية مكافحة السرطان باستخدام الذكاء الاصطناعي. لكن هذا الحل ، الذي أطلق عليه في البداية اسم Memorial Sloan Kettering في صندوق ، لم يكن ناجحًا في الإعدادات السريرية كما يوحي الضجيج ، وفي عام 2020 أغلقت شركة IBM المشروع.
عندما يكون الضجيج جوفاء ، يمكن أن تكون هناك عواقب دائمة. خلال حلقة نقاش في جامعة هارفارد حول إمكانات الذكاء الاصطناعي في الطب في فبراير ، ذكر طبيب الرعاية الأولية تريشان بانش رؤية منشور زميل على Twitter لمشاركة نتائج مطالبة ChatGPT بتشخيص المرض ، بعد فترة وجيزة من إطلاق برنامج chatbot.
يتذكر بانش أن الأطباء المتحمسين استجابوا بسرعة بتقديم تعهدات باستخدام التكنولوجيا في ممارساتهم الخاصة ، ولكن بحلول الرد العشرين تقريبًا ، تحدث طبيب آخر وقال إن كل مرجع تم إنشاؤه بواسطة النموذج كان مزيفًا. قال بانش ، الشريك المؤسس لشركة Wellframe الناشئة لبرامج الرعاية الصحية: “لا يتطلب الأمر سوى شيئًا أو شيئين من هذا القبيل لتقويض الثقة في الأمر برمته”.
على الرغم من أخطاء الذكاء الاصطناعي الصارخة في بعض الأحيان ، إلا أن روبرت بيرل ، الذي كان يعمل سابقًا في Kaiser Permanente ، لا يزال متفائلًا للغاية في نماذج اللغة مثل ChatGPT. وهو يعتقد أنه في السنوات المقبلة ، ستصبح النماذج اللغوية في الرعاية الصحية أشبه بجهاز iPhone ، وستكون مليئة بالميزات والقوة التي يمكن أن تعزز الأطباء وتساعد المرضى على إدارة الأمراض المزمنة. حتى أنه اشتبه في أن النماذج اللغوية مثل ChatGPT يمكن أن تساعد في تقليل أكثر من 250.000 حالة وفاة تحدث سنويًا في الولايات المتحدة نتيجة للأخطاء الطبية.
يعتبر بيرل أن بعض الأشياء محظورة على الذكاء الاصطناعي. يقول إن مساعدة الناس على التعامل مع الحزن والفقد ، ومحادثات نهاية الحياة مع العائلات ، والتحدث عن الإجراءات التي تنطوي على مخاطر عالية من المضاعفات ، يجب ألا تتضمن روبوتًا ، لأن احتياجات كل مريض متغيرة للغاية بحيث يتعين عليك إجراء تلك المحادثات . للوصول الى هناك.
يقول بيرل: “هذه محادثات بين إنسان” ، وتوقع أن ما هو متاح اليوم هو مجرد نسبة صغيرة من الإمكانات. “إذا كنت مخطئًا ، فذلك لأنني أبالغ في تقدير وتيرة التحسين في التكنولوجيا. لكن في كل مرة أنظر ، يتحرك أسرع مما كنت أتصور.
في الوقت الحالي ، يشبه ChatGPT بطالب طب: قادر على تقديم الرعاية للمرضى والمشاركة ، ولكن كل ما يفعله يجب أن يراجع من قبل الطبيب المعالج.
اكتشاف المزيد من مباشر التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.