يمكن لنماذج الذكاء الاصطناعي إنتاج مخرجات غير منطقية أو غير صحيحة من الناحية الواقعية أو منفصلة عن الواقع. تمثل هذه الظاهرة، التي يشار إليها باسم الهلوسة، تحديًا كبيرًا للنشر الموثوق للذكاء الاصطناعي، لا سيما في التطبيقات التي تتعامل مع العملاء.

تحدث هلوسة الذكاء الاصطناعي عندما يولد النموذج معلومات لا تدعمها بيانات التدريب أو الحقائق الخارجية، ولكنه يقدمها على أنها صحيحة. غالبًا ما يكمن جذر هذه المشكلة في البيانات المستخدمة لتدريب هذه الأنظمة المعقدة. ترتبط جودة ودقة واكتمال بيانات التدريب ارتباطًا مباشرًا بميل النموذج إلى الهلوسة. بالنسبة لقادة الأعمال، يعد فهم هذه العلاقة أمرًا أساسيًا للتخفيف من المخاطر الكبيرة المرتبطة بمخرجات الذكاء الاصطناعي غير الموثوقة.

تبحث هذه المقالة في العلاقة بين جودة بيانات التدريب وهلوسة نموذج الذكاء الاصطناعي. وهو يوفر أطرًا لقادة الأعمال لتقييم وإدارة هذه المخاطر، ويناقش العواقب الوخيمة المتعلقة بالسمعة والتشغيل لعدم موثوقية النموذج، ويستكشف تقنيات إعداد البيانات المحددة التي يمكن أن تحسن مصداقية أنظمة الذكاء الاصطناعي. الهدف هو توفير دليل واضح للمنظمات التي تسعى إلى نشر الذكاء الاصطناعي بمسؤولية وفعالية.

العواقب المتعلقة بالسمعة والتشغيل للذكاء الاصطناعي غير الموثوق

يمكن أن يؤدي نشر أنظمة الذكاء الاصطناعي التي تنتج معلومات خاطئة إلى عواقب تجارية وخيمة، تتراوح من الخسارة المالية إلى تلف العلامة التجارية الذي لا يمكن إصلاحه. عندما يقدم الذكاء الاصطناعي الذي يتعامل مع العملاء معلومات غير صحيحة، يمكن أن تكون تداعيات السمعة فورية وواسعة الانتشار. لا يفرق العملاء عادةً بين الخطأ الذي ارتكبه الذكاء الاصطناعي والخطأ الذي ارتكبته الشركة نفسها. قد يكون من الصعب التعافي من تآكل الثقة هذا.

توضح العديد من الحوادث البارزة التأثير الملموس لهلوسة الذكاء الاصطناعي. في قضية بارزة اعتبارًا من فبراير 2024، تم تحميل شركة Air Canada المسؤولية من قبل محكمة المطالبات الصغيرة عن التحريف المهمل الذي قدمه روبوت الدردشة الخاص بخدمة العملاء [1]. أبلغ برنامج الدردشة الآلي أحد الركاب بشكل غير صحيح بسياسة أجرة الفجيعة الخاصة بشركة الطيران، مشيرًا إلى أنه يمكن تطبيق استرداد الأموال بأثر رجعي. هذا يتناقض مع السياسة الفعلية لشركة الطيران. أمرت المحكمة شركة طيران كندا بدفع تعويضات، ورفضت حجة شركة الطيران بأن روبوت الدردشة كان كيانًا منفصلاً مسؤولاً عن أفعاله. أكد قرار المحكمة على مبدأ حاسم: الشركة مسؤولة عن جميع المعلومات على موقعها الإلكتروني، سواء من صفحة ثابتة أو روبوت محادثة.

كما تفاعلت الأسواق المالية بقوة مع إخفاقات الذكاء الاصطناعي. في فبراير 2023، أظهر مقطع فيديو ترويجي لروبوت الدردشة Bard من Google أنه يقدم إجابة غير دقيقة حول تلسكوب جيمس ويب الفضائي. ساهم الخطأ العام في خسارة ليوم واحد بقيمة 100 مليار دولار في القيمة السوقية من شركتها الأم، Alphabet. أظهر هذا الحدث أنه حتى هلوسة واحدة تبدو بسيطة من ذكاء اصطناعي بارز يمكن أن يكون لها تداعيات مالية كبيرة.

كما أن التكاليف التشغيلية لإدارة الذكاء الاصطناعي غير الموثوق به كبيرة أيضًا. عندما ينتج نظام الذكاء الاصطناعي مخرجات غير صحيحة، يجب على الموظفين البشريين التدخل لتصحيح الأخطاء، مما يؤدي إلى زيادة أعباء العمل وارتفاع تكاليف الدعم. في بعض الحالات، أبلغ المطورون عن قضاء المزيد من الوقت في تصحيح التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي أكثر مما كان سيستغرقه الأمر لكتابتها من البداية، مما يلغي أي مكاسب إنتاجية مقصودة. وتمثل هذه التكاليف الخفية استنزافًا تشغيليًا كبيرًا للموارد.

إطار لتقييم مخاطر الهلوسة والتخفيف من حدتها

نظرًا لاحتمال حدوث ضرر كبير، يحتاج قادة الأعمال إلى نهج منظم لإدارة المخاطر المرتبطة بهلوسات الذكاء الاصطناعي. يسمح إطار إدارة المخاطر الشامل للمؤسسات بتحديد وتقييم وتخفيف هذه المخاطر بشكل منهجي. وينبغي دمج هذه العملية في هياكل أوسع لإدارة التكنولوجيا والمخاطر التشغيلية.

الخطوة الأولى هي تحديد المخاطر. يتضمن ذلك إنشاء مخزون كامل لجميع أنظمة الذكاء الاصطناعي المستخدمة في جميع أنحاء المؤسسة، بما في ذلك أدوات «Shadow AI» غير المصرح بها والتي قد يستخدمها الموظفون دون موافقة رسمية. بالنسبة لكل نظام، يجب على المنظمة تحديد التأثير المحتمل للهلوسة. يجب إعطاء الأولوية لحالات الاستخدام عالية المخاطر، مثل تلك التي تنطوي على المشورة القانونية أو المعاملات المالية أو المعلومات الطبية أو التواصل المباشر مع العملاء. يعد فهم نوع النموذج المستخدم أيضًا عاملاً رئيسيًا، حيث تتميز النماذج المختلفة بمعدلات هلوسة موثقة متفاوتة. على سبيل المثال، وجدت إحدى الدراسات أن معدلات الهلوسة بين نماذج اللغات الكبيرة الرائدة تراوحت من 0.7٪ إلى 29.9٪ [3].

بمجرد تحديد المخاطر، فإن الخطوة التالية هي تقييم المخاطر. يتطلب هذا تقييم كل من الاحتمالية والتأثير المحتمل للهلوسة لكل حالة استخدام محددة. يمكن تقدير الاحتمالية بناءً على الأداء المعروف للنموذج وطبيعة المطالبات التي سيتعامل معها. يتم تحديد التأثير من خلال سياق الأعمال. الهلوسة في مستند داخلي يستخدم في العصف الذهني لها تأثير أقل بكثير من تلك الموجودة في عقد ملزم قانونًا يتم إرساله إلى العميل. يمكن أن يساعد اختبار الإجهاد، بما في ذلك استخدام المطالبات العدائية المصممة للحث على الأخطاء، في تحديد موثوقية النموذج تحت الضغط.

ثانيًا لتقييم المخاطر هو التطبيق الفعلي لاستراتيجيات التخفيف المستهدفة. وينبغي أن تكون هذه الضمانات متعددة الطبقات؛ بحيث تعمل الضمانات التقنية والإجرائية والبشرية معاً. بالنسبة للتطبيقات عالية المخاطر، فإن اختيار النماذج ذات معدلات الهلوسة المنخفضة وتصميم مطالبات منظمة لا لبس فيها يقلل من عدم اليقين في المصدر. يمكن للجيل المعزز بالاسترجاع ترسيخ المخرجات في قواعد المعرفة الموثوقة لضمان الاتساق الواقعي. تظل الرقابة البشرية ضرورية لاتخاذ القرارات الحاسمة، مدعومة بأدوات التحقق الآلي من الحقائق والتحقق المتبادل. أخيرًا، يؤدي الضبط الدقيق للنماذج على البيانات المنسقة والخاصة بالمجال إلى تعزيز الموثوقية الواقعية وتقليل الاستجابات غير ذات الصلة أو المضللة.

يجب أن يتضمن الإطار المراقبة الشاملة والحوكمة. ويشمل ذلك وضع سياسات واضحة للاستخدام المقبول للذكاء الاصطناعي، وتحديد المساءلة عن المخرجات الناتجة عن الذكاء الاصطناعي، وتوفير التدريب لجميع الموظفين على مخاطر الهلوسة. يسمح تسجيل مخرجات الذكاء الاصطناعي ومراجعتها بالمراقبة المستمرة ويساعد في تحديد أنماط الخطأ المتكررة. من خلال التعامل مع الذكاء الاصطناعي كنظام معقد يتطلب توثيقًا صارمًا واختبارًا وضوابط تكيفية، يمكن للشركات إدارة التحديات الكامنة في الهلوسة بفعالية.

تقنيات إعداد البيانات لتحسين مصداقية النموذج

تتمثل الإستراتيجية الأكثر فاعلية على المدى الطويل للحد من هلوسات الذكاء الاصطناعي في التركيز على جودة البيانات المستخدمة لتدريب النماذج وضبطها. ينطبق مبدأ «القمامة في الداخل والقمامة» بقوة خاصة على الذكاء الاصطناعي. إن النموذج الذي تم تدريبه على بيانات غير دقيقة أو متحيزة أو غير كاملة سيؤدي حتمًا إلى نتائج غير موثوقة. إن الإعداد الدقيق للبيانات ليس مجرد خطوة فنية ولكنه ضرورة تجارية أساسية لبناء ذكاء اصطناعي جدير بالثقة.

  • تنظيم البيانات هي الممارسة التأسيسية. يتضمن الاختيار الدقيق للبيانات من مصادر تم التحقق منها وذات السمعة الطيبة مع تصفية المحتوى غير الموثوق به أو المتحيز بنشاط. بالنسبة للعديد من التطبيقات، يعني هذا إنشاء مجموعة بيانات مرجعية «المعيار الذهبي» تعمل كمصدر وحيد للحقيقة للنموذج. يجب أن تكون مجموعة البيانات هذه شاملة ودقيقة وممثلة للمجال الذي سيعمل فيه الذكاء الاصطناعي. على سبيل المثال، يجب تدريب الذكاء الاصطناعي المصمم للتشخيص الطبي على البيانات المنسقة من المجلات الطبية التي تمت مراجعتها من قبل الأقران والتجارب السريرية التي تم التحقق منها، وليس على منتديات الويب المفتوحة حيث يتم تبادل المشورة الطبية دون التحقق من الخبراء.
  • إدارة جودة البيانات النشطة هي عملية مستمرة تتضمن العديد من العمليات الرئيسية. يتم استخدام توصيف البيانات لتحليل خصائص البيانات وتحديد الثغرات والتناقضات. يتضمن تنظيف البيانات تصحيح الأخطاء وإزالة التكرارات وتوحيد التنسيقات. يضيف إثراء البيانات سياقًا قيمًا وبيانات وصفية، مما يساعد النموذج على فهم الفروق الدقيقة في المعلومات. لا ينبغي أن تكون هذه العمليات مجهودًا لمرة واحدة بل جزءًا مستمرًا من دورة حياة البيانات، مما يضمن أن النموذج يتعلم دائمًا من المعلومات الأكثر دقة وحداثة المتاحة.
  • الجيل المعزز للاسترجاع (RAG) هي تقنية فعالة تعالج مشكلة الهلوسة بشكل مباشر من خلال ربط نموذج لغوي كبير بقاعدة معارف خارجية موثوقة. بدلاً من إنشاء استجابة تستند فقط إلى المعلمات المدربة مسبقًا، يسترجع النموذج الذي يدعم RAG المعلومات ذات الصلة من المصدر الموثوق ويستخدمها لإنشاء الإجابة. هذا يؤسس مخرجات النموذج على حقائق يمكن التحقق منها ويسمح له بالاستشهاد بمصادره، مما يوفر طبقة من الشفافية والمساءلة غائبة في النماذج غير القائمة على أسس.
  • التعلم المعزز من ردود الفعل البشرية (RLHF) يقدم مسارًا آخر لتحسين موثوقية النموذج. في هذه العملية، يقوم المقيّمون البشريون بمراجعة وتسجيل مخرجات النموذج من أجل الدقة والملاءمة والمساعدة. ثم يتم استخدام هذه التعليقات «لمكافأة» النموذج لإنتاج استجابات عالية الجودة و «معاقبته» لتوليد الهلوسة. من خلال العديد من التكرارات، تقوم حلقة التغذية الراجعة هذه بتدريب النموذج لمواءمة مخرجاته بشكل أوثق مع التوقعات البشرية المتعلقة بالدقة الواقعية.

هذه التقنيات التي تركز على البيانات، على الرغم من أنها كثيفة الاستخدام للموارد، هي الطرق الأكثر موثوقية لبناء أنظمة الذكاء الاصطناعي الأقل عرضة للهلوسة. إنهم يحولون التركيز من محاولة تصحيح مخرجات نموذج معيب إلى بناء نموذج أكثر موثوقية من الألف إلى الياء. بالنسبة لقادة الأعمال، يعد الاستثمار في البنية التحتية للبيانات عالية الجودة والعمليات استثمارًا مباشرًا في السلامة والموثوقية والقيمة طويلة الأجل لمبادرات الذكاء الاصطناعي الخاصة بهم.

هلوسات الذكاء الاصطناعي تتجاوز كونها خللًا تقنيًا عشوائيًا...

هذه مشكلة نظامية مرتبطة مباشرة بجودة البيانات التي يتم تدريب النماذج عليها. بالنسبة للشركات، فإن عواقب نشر الذكاء الاصطناعي غير الموثوق به شديدة، وتشمل المسؤولية القانونية والخسارة المالية والضرر الدائم لثقة العملاء وسمعة العلامة التجارية. تقدم حالات Air Canada و Google دليلًا صارخًا على التأثير الحقيقي لهذه الإخفاقات.

يجب على قادة الأعمال اعتماد نهج استباقي ومنظم لإدارة المخاطر. يتضمن ذلك تحديد مخاطر الهلوسة وتقييمها والتخفيف منها بشكل منهجي من خلال مزيج من الاختيار الدقيق للنماذج والهندسة السريعة الدقيقة والإشراف البشري والحوكمة القوية. ومع ذلك، فإن الحل الأكثر ديمومة يكمن في الالتزام العميق بالبيانات عالية الجودة. من خلال التنظيم الدقيق للبيانات، والإدارة المستمرة لجودة البيانات، وتنفيذ التقنيات المتقدمة مثل RAG و RLHF، يمكن للمؤسسات بناء أنظمة ذكاء اصطناعي أكثر موثوقية وجدارة بالثقة.

يتطلب النشر المسؤول للذكاء الاصطناعي تحولًا في المنظور. بدلاً من النظر إلى الذكاء الاصطناعي كصندوق أسود سحري، يجب التعامل معه كنظام معقد يتطلب هندسة صارمة ورقابة مستمرة والتزامًا ثابتًا بالدقة الواقعية. يمكن أن يساعد تحديد أولويات جودة البيانات قادة الأعمال على إطلاق العنان للإمكانات الكاملة للذكاء الاصطناعي لتقديم قيمة حقيقية لعملائهم ومؤسساتهم.