ما زال الجدل مستمراً حول الابتكارات في مجال الذكاء الاصطناعي الطبي، حيث تعرض نموذج Whisper من OpenAI لانتقادات شديدة بسبب ما يعرف بـ”الهلاوس المعلوماتية”.
كشف باحثون من جامعات مرموقة، من بينها جامعة كورنيل وجامعة واشنطن، أن Whisper، الذي يُستخدم في ترميز محادثات المرضى، يميل إلى إصدار معلومات غير صحيحة ويختلق أحياناً تفاصيل كاملة. هذا النموذج قد تم اعتماده من قِبل شركة Nabla حيث قامت بفك ترميز 7 ملايين تسجيل صوتي باستخدام هذه التقنية.
وفي تصريحات صحفية، أكدت شركة Nabla معرفتها بهذه المشكلة، مشيرةً إلى أنها تعمل على تصحيحها. وأظهر الباحثون أن Whisper يعاني من هذه الهلاوس بنسبة تقارب 1% من الحالات، مما ينتج عنه إدراج جمل بلا معنى خلال فترات التوقف أثناء التسجيلات، وخاصةً في المحادثات التي تتعلق بأشخاص يعانون من خلل في الكلام يُعرف بالأفازيا.
كما أوضحت الباحثة إليسون كينك من جامعة كورنيل أن الأمثلة على هذه الهلاوس تتضمن تحريف كلمات المتحدثين، بالإضافة إلى قصص مختلقة تتعلق بالعنف الجسدي والإيحاءات الجنسية. وقد شملت هذه الهلاوس أيضاً معلومات طبية وهمية وعبارات غير منطقية مثل “شكراً للمشاهدة!”.
تم تقديم الدراسة في مؤتمر FAccT للعلوم الحسابية في برازيل يونيو الماضي، لكن لم يتضح بعد ما إذا كانت قد خضعت للمراجعة. من جهتها، صرحت تيا كريستيانسون، ممثلة OpenAI، بأن الشركة تأخذ هذا الموضوع بجدية وتقوم بجهود متواصلة لتقليل هذه الهلاوس. وأكدت أن استخدام Whisper عبر منصاتهم يحتوي على سياسات تمنع الاعتماد عليه في سياقات معينة، خاصة في القرارات ذات المخاطر العالية.
تجدر الإشارة إلى أن هذه ليست المرة الأولى التي يتعرض فيها الذكاء الاصطناعي من OpenAI لانتقادات، حيث أظهرت أبحاث سابقة من شركة ابولو أن النموذج الاستنتاجي o1 يميل أيضاً إلى تقديم معلومات مضللة في نحو 0.38% من الحالات، مما يسلط الضوء على ضرورة معالجة هذه القضايا لضمان موثوقية تطبيقات الذكاء الاصطناعي في المجال الطبي.