التعاقد
حين أبرمت وزارة التوظيف والعلاقات العمالية الأسترالية عقدًا مع عملاق الاستشارات المالية “ديلويت” بقيمة 440,000 دولار أسترالي (290,000 ألف دولار أمريكي) في ديسمبر 2024، كانت تتوقع الحصول على تقييم احترافي مستقل لفرض العقوبات الآلية ضمن منظومة الرعاية الاجتماعية، في إطار برنامج “مستقبل صُنع في أستراليا”.
الفضيحة
لكن ما حصلت عليه الوزارة بعد انتظار سبعة أشهر كان “فضيحة”، حسب وصف وكالات أنباء وصحف عالمية:
– الاستناد إلى تقارير أكاديمية مختلقة، منسوبة زورًا إلى جامعتي سيدني الأسترالية ولوند السويدية.
– الاستشهاد بأوراق بحثية مختلقة، منسوبة زورًا إلى خبراء في القانون وهندسة البرمجيات.
– اقتباس مفبرك من حُكمٍ قضائي مختلق، منسوب زورًا إلى المحكمة الفيدرالية.
الكشف
لم تكتشف ديلويت” -أكبر شركة خدمات مهنية في العالم- الأخطاء قبل تسليم التقرير المكون من 237 صفحة إلى الوزارة، ولم تكتشفه الوزارة قبل نشره على موقعها الرسمي في يوليو 2025.
مَن اكتشفها إذًا؟
الباحث في جامعة سيدني، كريس رودج، هو الذي نَبَّه وسائل الإعلام إلى أن التقرير مليء بالاقتباسات المختلقة والمصادر المزيفة.
أول ما لفت انتباهه كان عنوان كتاب منسوب لأستاذة القانون العام والدستوري بجامعة سيدني، ليزا بيرتون كروفورد، لكن موضوع الكتاب كان بعيدًا عن نطاق تخصصها.
حينها أدرك رودج أن الكتاب إما من هلوسات الذكاء الاصطناعي، أو أنه سِرٌّ الأسرار، الذي لم يسمع أحد عنه من قبل.
ولَمَّا دقق أكثر، رصد نحو 20 خطأ مشابهًا في النسخة الأولى من التقرير.
الاستجابة
سلطت صحيفة ‘أستراليان فاينانشال ريفيو’ الضوء على هذه الأخطاء في أواخر أغسطس، ثم توالت الانتقادات التي استدعت استجابة من الوزارة والشركة.
حذفت الوزارة التقرير من موقعها الرسمي، وأقرت ديلويت بعد مراجعته بورود أخطاء في بعض الهوامش والمصادر، وحذفت أو استبدلت أكثر من 12 مرجعًا مختلقًا، وحدثت قائمة المراجع، وصححت الأخطاء المطبعية، ونشرت الوزارة النسخة المنقحة على موقعها الرسمي.
أفصحت ديلويت في النسخة المنقحة أنها استعانت بنموذج الذكاء الاصطناعي التوليدي Azure OpenAI في إعداد التقرير، ووافقت على إرجاع الدفعة الأخيرة من التعاقد للحكومة الأسترالية، وإن حاولت التخفيف من أثر الأخطاء قائلة إنها لم تؤثر على جوهر التقرير، ولم تستدعي تغيير التوصيات الناتجة عنه.
شكوك
لكن هذا لم يكن كافيًا؛ إذ تعهدت الحكومة الأسترالية بتطبيق شروط أكثر صرامة على عقود الاستشارات المستقبلية بشأن استخدام الذكاء الاصطناعي.
أقلق هذا التلميح بقية شركات الاستشارات، التي تخشى على العقود التي تبرمها مع الحكومة الفيدرالية وتدر عليها ملايين الدولارات سنويًا، وأن تستبق شركات إرنست ويونغ، وكيه بي إم جي، وبرايس ووتر هاوس كوبرز، ومجموعة بوسطن الاستشارية أصابع الاتهام بتصريحات تؤكد تطبيقها تدقيقات صارمة لتجنب أخطاء الذكاء الاصطناعي، وإخضاعها نتائجه لمراجعة المستشارين قبل إرسالها إلى العملاء.
ولا غروَ، فقد حثت المحكمة العليا في إنجلترا وويلز المحامين على بذل جهود أكبر لضمان دقة الأبحاث القانونية التي تعتمد على أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT، بعدما تزايدت الحالات التي استشهد فيها المحامون، بما في ذلك من يمثلون منصات ذكاء اصطناعي رئيسة في الولايات المتحدة، بمعلومات غير دقيقة يُعتقد أنها مُولدة بالذكاء الاصطناعي.
وفي أجرت نقابات محامين تحقيقاتٍ للتأكد من أن المذكرات القانونية التي استعين في إعدادها بالذكاء الاصطناعي لا تُسيء صياغة السوابق القضائية أو تخطيء في نسبة المصادر، سحبت الجامعات أوراقًا أكاديمية استخدم فيها مؤلفوها أدوات الذكاء الاصطناعي لكنهم فشلوا في التحقق من المراجع المُولّدة، مما أضرّ بالثقة في البحث العلمي.
سوابق
لم تكن تلك هي الفضيحة الأولى، بل أثارت الجهات التنظيمية في عديد من دول العالم، بما في ذلك الولايات المتحدة والمملكة المتحدة والصين والهند، المخاوف بشأن منهجية التدقيق التي تطبقها ديلويت، إثر حوادث مشابهة أثارت انتقادات إعلامية واستدعت تحقيقات حكومية اكتشف بعضها ثغرات في الإجراءات المتبعة وانتهاكا لقوانين الشركات وضوابط الجودة بل وأسفرت في بعض الحالات عن فرض غرامات بمئات الآلاف من الدولارات.
قد تكون الشركة تعلمت من هذه الفضائح المتكررة كيف تطوق الأزمة باحترافية، ربما بطرد الموظف الذي يحاول كشف التلاعب المتعمد، مثلما حدث قبل نحو 20 عامًا عندما تورطت في فضيحة انهيار مجموعة بارمالات الغذائية الإيطالية نتيجة مخالفاتها المحاسبية. لكنها لم تتعلم أن الإتقان يتطلب أكثر من حملات إعلامية لتحسين السمعة وشراكات جديدة بملايين الدولارات.
وعلى كل حال، “ديلويت” ليست الوحيدة التي واجهت مشاكل من هذا النوع؛ ففي مايو الماضي اضطرت صحيفة شيكاغو صن تايمز إلى الاعتذار بعد نشرها قائمة كتب تضمنت عناوين “مختلقة” أنشأها الذكاء الاصطناعي. وحتى شركة أنثروبيك نفسها لم تسلم من هذه الظاهرة، إذ تبين أنها استخدمت مرجعا مزيفا من “كلاود” في نزاع قانوني مع ناشري موسيقى في وقت سابق من العام.
الرهان
على الرغم من هذا اللغط، لم تسحب ديلويت رهانها على الذكاء الاصطناعي، بل ضاعفته؛ إذ أعلنت في خضم الأزمة توقيع اتفاق ضخم مع شركة أنثروبيك يتيح استخدام نموذج ‘كلود’ اللغوي لأكثر من 470 ألف متخصص حول العالم، وهو التعاقد الأكبر من نوعه حتى الآن.
يأتي ذلك في سياق سباق شركات الاستشارات الأربع الكبرى -ديلويت، وبي دبليو سي، وإرنست آند يونغ، وكيه بي إم جي- بالإضافة إلى شركات استراتيجية مثل ماكينزي، لإنفاق مليارات الدولارات على أبحاث تطوير الذكاء الاصطناعي بهدف إبعاد المنافسين الأصغر حجمًا، الذين ربما يكون بعضهم أكثر كفاءة.
وكانت ديلويت قد أعلنت في سبتمبر عن خطة لضخ 3 مليارات دولار في تقنيات الذكاء الاصطناعي التوليدي حتى عام 2030.
هلوسات
لازمت الهلوسات –أو الاختلاقات حسبما يفضل البروفيسور في جامعة ساسِكس البريطانية أنيل سيث تسميتها- أنظمة الذكاء الاصطناعي التوليدية منذ ظهورها؛ فما فتئت تختلق معلومات لا أصل لها، وتستشهد بمصادر لا وجود لها، وترد بإجابات خاطئة تجافي المنطق، ثم تدافع عنها وتحاول إقناع محاورها بصحتها.
تصيب هذه الهلاوس جميع نظم الذكاء الاصطناعي التوليدي، بما في ذلك النماذج اللغوية الكبيرة، مثل تشات جي بي تي وجيميناي وديبسيك، ولم ينجُ منها غروك 4.0 الذي تفاخر ماسك مرارا أنه أقوى ذكاء اصطناعي بل أذكى من البشر، لكن الهلوسة أصابته فطفق يقذف بالكراهية حتى اضطروا إلى إيقافه عن العمل لعدة أيام.
وقد تكون في الاقتباسات والمصادر كما حدث في تقرير ديلويت، أو في تفسير السياق أو اختلاق تفاصيل غير موجودة، أو استنتاج معلومات خاطئة من البيانات المقدمه له، أو في إنتاج صور غير واقعية او مشوهة، أو تبني تحيزات موجودة في البيانات التي تدرب عليها.
داء مزمن
طالما تعتمد هذه النماذج على معادلات رياضية لقياس صحة الاحتمالات، بدلا من قواعد ثابتة يضعها مهندسون بشر، وتتغذى على كم هائل من البيانات مفتوحة المصدر التي تفتقر إلى الدقة، فلا يتوقع أن يشفى الذكاء الاصطناعي من هذه الهلوسات، حسبما يرى عمرو عوض الله المدير التنفيذي لشركة “فيكتارا” (Vectra) الناشئة لتطوير أدوات الذكاء الاصطناعي للشركات والعضو التنفيذي السابق في “غوغل”.
صحيح أن جهودًا حثيثة تبذل لمقاومة تلك الهلاوس، لكن التخلص منها تمامًا يستلزم تغيير المبدأ الأساسي لعملها الذي يعتمد على التنبؤ. وإذا كان التخلص من الاعتماد على العينات العشوائية سيجبر الذكاء الاصطناعي التوليدي ببساطة على تقليد البيانات التي تدرب عليها، فإنه سيجعله كمحرك بحث بسيط.
قد يكون الحل في النظم المنفصلة لتدقيق الحقائق، لكن البروفيسور توماس نوفوتني، مدير مجموعة أبحاث الذكاء الاصطناعي والأستاذ بقسم هندسة علوم الأعصاب والمعلوماتية بجامعة ساسِكس البريطانية، يقول إن العلماء لا يعرفون حتى الآن كيفية بنائها بطريقة فعّالة. ويتفق معه خبير الذكاء الاصطناعي بمدينة سان فرانسيسكو الأمريكية، محمد الجندي ، في أن القضاء على هذه الهلوسات تماما سيحتاج إلى تطورات جذرية في بنية الذكاء الاصطناعي نفسها، لم يصل إليها العلماء بعد.
الاستنتاجات والتوصيات
تكشف أزمة تقرير “ديلويت” أن أخطر ما يهدد المؤسسات في عصر الذكاء الاصطناعي ليس الخطأ التقني في حد ذاته، بل غياب منظومة تدقيق بشرية مؤسسية قادرة على اكتشافه قبل أن يتحول إلى أزمة إعلامية تشوه السمعة وتزعزع الثقة.
ولا أوضح من هذه “الفضيحة” للبرهان على أن الاعتماد على أدوات الذكاء الاصطناعي في إعداد التقارير أو صناعة المحتوى دون تدقيق بشري صارم يعرض المؤسسات لخطر فقدان المصداقية، حتى ولو تكون من أكبر العمالقة في هذا المجال، وأكثرها إنفاقًا على تطوير التكنولوجيا.
أولًا: الرصد والتحقق
أوضحت الواقعة أن التحقق من صحة البيانات لم يعد مسؤولية الصحفيين والباحثين وحدهم، بل ضرورة استراتيجية لكل جهة تُصدِر أو تستقبل محتوى يعتمد على أدوات الذكاء الاصطناعي.
وتتطلب المرحلة القادمة أن تتبنى المؤسسات آليات دقيقة لرصد الأخطاء والمغالطات قبل أن تصل إلى الجمهور أو الشركاء.
ثانيًا: إدارة الأزمة وحماية السمعة
تكلف الأخطاء الناتجة عن الذكاء الاصطناعي المؤسسات أضعاف ما توفره من وقت أو جهد أو مال.
وأزمة “ديلويت” مثال واضح على أن سرعة النشر بلا تدقيق تحوّل ميزة “الذكاء” إلى عبء على السمعة يصعب احتواؤه إعلاميًا.
تحتاج الحكومات والشركات إلى خطط استباقية للرصد والتحليل الإعلامي تتابع ما يُنشر عنها وتلتقط إشارات الأزمات قبل تفاقمها.
ثالثًا: القطاعان العام والخاص
توظيف الذكاء الاصطناعي لا يُغني عن التفكير النقدي البشري، بل يعزز الحاجة إليه.
ينبغي دمج حلول الذكاء الاصطناعي ضمن منظومة حوكمة متكاملة للمحتوى تتضمن المراجعة، والتحقق، والتوثيق، والمساءلة.
المؤسسات الحكومية والخاصة على السواء مطالبة بوضع معايير واضحة لاستخدام أدوات الذكاء الاصطناعي في إنتاج التقارير أو الدراسات.
رابعًا: الشركات
في ظل هذا التحول العالمي، يزداد العبء الملقى على عاتق الشركات التي تقدم خدمات الرصد والتحليل الإعلامي وصناعة المحتوى، مثل أكيوليجنس، وتتضاعف ضرورة الفحص والتدقيق لاكتشاف الأخطاء وتفكيك المغالطات قبل أن تتحول إلى أزمات.
لتحقيق هذا الهدف، لا غنى عن دمج الخبرات البشرية متعددة التخصصات واللغات، وأدوات الرصد والتحليل المعتمدة على الذكاء الاصطناعي، لتوفير استخبارات إعلامية موثوقة تمكن المسؤولين الحكوميين والقادة التنفيذيين من اتخاذ قرارات مستنيرة.
لا تكتمل المنظومة إلا بدمج الحلول اللغوية التي تضمن الدقة والسلاسة في التواصل مع الجمهور والشركاء، والوضوح في صياغة الملاحظات والتوصيات الناتجة عن جهود الرصد والتحليل والتقارير النوعية ووالدراسات المتخصصة.
ضرورة تبني تفكير نقدي، واستشارة المراجع الموثوقة، للتأكد من المحتوى الذي ينتجه الذكاء الاصطناعي.
خامسًا: العملاء
عدم الاعتماد على الذكاء الاصطناعي دون إجراء تحقق بشري متخصص.
لا تنشر تقريرًا، أو تطبق توصيات، إلا بعد مراجعة وتدقيق.
التعامل مع كل معلومة غير موثقة على أنها نواة لأزمة محتملة مستقبلا.
دمج الرصد والتحليل في منظومة إدارة المخاطر وتحسين السمعة.
التعاون مع الخبراء في فهم السياق الإعلامي المحلي والعالمي، وليس فقط في معالجة البيانات.
الاستثمار في ترسيخ الثقة، فهي رأس المال الحقيقي في عصر الذكاء الاصطناعي.
أي وقت أو جهد أو مال سيوفره الذكاء الاصطناعي لا يوازي الثمن الذي سيترتب على التساهل في تدقيق مخرجاته.
المصادر: فاينانشال تايمز، فاينانشال ريفيو، ايه بي سي نيوز،NDTV ، NDTV، سي ان ان، بي بي سي، العربية، الجزيرة، الشرق، الجزيرة، الخليج، أرقام.