تستثمر مؤسسات الرعاية الصحية في جميع أنحاء العالم المليارات في تقنيات الذكاء الاصطناعي، حيث يستفيد 75٪ من المتخصصين في الامتثال بالفعل من الذكاء الاصطناعي أو يفكرون فيه بنشاط في الوظائف الداخلية. ومع ذلك، تم نشر أقل من 1٪ من أدوات الذكاء الاصطناعي التي تم تطويرها خلال جائحة COVID-19 بنجاح في البيئات السريرية، مما يسلط الضوء على تعقيد ترجمة قدرات الذكاء الاصطناعي إلى تطبيقات الرعاية الصحية في العالم الحقيقي.
مكالمة الإيقاظ بقيمة 4 مليارات دولار؟
يجب أن يرعب الفشل المذهل لشركة IBM Watson for Oncology كل رئيس قسم معلومات في مجال الرعاية الصحية. بعد إنفاق 4 مليارات دولار والشراكة مع مؤسسات مرموقة مثل Memorial Sloan Kettering، لم يستطع Watson مطابقة المبادئ التوجيهية الأساسية للأورام، ناهيك عن إحداث ثورة في رعاية مرضى السرطان. دراسة حالة آي بي إم واتسون
ما الخطأ الذي حدث؟ نفس المشكلات التي تقتل مشاريع الذكاء الاصطناعي اليوم: جودة البيانات غير الكافية، وضعف تكامل سير العمل السريري، والتوقعات غير الواقعية حول قدرات الذكاء الاصطناعي.
البيانات المهمة: ما الذي يعمل بالفعل
يكشف استطلاع HIMSS 2024 عن:
- تستخدم 86٪ من مؤسسات الرعاية الصحية الذكاء الاصطناعي (ارتفاعًا من 53٪ في عام 2023)
- 64% من مشاريع الذكاء الاصطناعي المنفذة تُظهر عائد استثمار إيجابي
- 60% من الأطباء يدركون التفوق التشخيصي للذكاء الاصطناعي في حالات استخدام محددة
- لكن 72٪ ما زالوا يشيرون إلى خصوصية البيانات باعتبارها أكبر مصدر قلق لهم.
أحدث معلومات ماكينزي:
- 85% من قادة الرعاية الصحية يستكشفون الذكاء الاصطناعي التوليدي أو اعتمدوه
- 61% يختارون الشراكات بدلاً من التطوير الداخلي
- تؤدي الكفاءة الإدارية والإنتاجية السريرية إلى تحقيق أعلى معدلات النجاح
تقرير HIMS للذكاء الاصطناعي 2024 | نظرة ماكينزي للرعاية الصحية على الذكاء الاصطناعي
الآن إليك 8 أشياء يجب مراعاتها عند إدخال الذكاء الاصطناعي في الرعاية الصحية؛
1. الامتثال التنظيمي والإطار القانوني
يعمل الذكاء الاصطناعي للرعاية الصحية في واحدة من أكثر الصناعات تنظيمًا، مما يتطلب الالتزام الصارم بطبقات متعددة من معايير الامتثال. مع قانون الاتحاد الأوروبي للذكاء الاصطناعي الذي ينفذ القواعد الشاملة لأنظمة الذكاء الاصطناعي الطبية عالية المخاطر التي بدأت في 2 فبراير 2025.
يجب على مؤسسات الرعاية الصحية التعامل مع المتطلبات التنظيمية المعقدة بما في ذلك HIPAA و GDPR وعمليات موافقة إدارة الغذاء والدواء واللوائح الناشئة الخاصة بالذكاء الاصطناعي. تتطلب أنظمة الذكاء الاصطناعي الطبية عالية المخاطر بروتوكولات شاملة لإدارة المخاطر وأطر حوكمة البيانات والوثائق الفنية وقدرات المراقبة المستمرة. يمكن أن يؤدي عدم الامتثال إلى عقوبات تصل إلى 6٪ من المبيعات السنوية العالمية.
- أصبح إنشاء برنامج متخصص للامتثال للذكاء الاصطناعي أمرًا ضروريًا، حيث يضم لجان حوكمة متعددة التخصصات تضم ممثلين عن الشؤون القانونية والامتثال وتكنولوجيا المعلومات والعمليات السريرية وإدارة المخاطر. يجب أن تتناول هذه البرامج عمليات شراء الذكاء الاصطناعي ونشره ومراقبته ومواءمته مع معايير الصناعة المتطورة والمتطلبات التنظيمية.
2. جودة البيانات وإمكانية الوصول
تعتمد فعالية أنظمة الذكاء الاصطناعي بشكل أساسي على جودة بيانات الرعاية الصحية وإمكانية الوصول إليها. غالبًا ما يتم توزيع بيانات الرعاية الصحية عبر أنظمة مختلفة، مما يؤدي إلى عدم الدقة والتناقضات التي يمكن أن تؤثر سلبًا على فعالية نموذج الذكاء الاصطناعي وموثوقيته.
تمثل جودة البيانات الرديئة حاجزًا رئيسيًا أمام قابلية التشغيل البيني وتثبت أنها ضارة بأداء الذكاء الاصطناعي. عند فقدان معنى البيانات أو إساءة تفسيره، يمكن لنماذج الذكاء الاصطناعي المدربة على مجموعات البيانات المخترقة إنتاج رؤى وتوصيات خاطئة، مما قد يعرض سلامة المرضى للخطر.
ذا فيكس:
- تنفيذ المراقبة الآلية لجودة البيانات
- إنشاء ملكية واضحة للبيانات عبر الأقسام
- خصص جزءًا كبيرًا من استثمارك في الذكاء الاصطناعي في السنة الأولى لـ البنية التحتية للبيانات
3. قابلية التشغيل البيني وتكامل النظام
غالبًا ما تعمل أنظمة الرعاية الصحية في صوامع، مع منصات خاصة تقاوم التكامل مع التقنيات الأخرى. تخلق هذه التجزئة تحديات كبيرة لتنفيذ الذكاء الاصطناعي، حيث تتطلب خوارزميات التعلم الآلي وصولاً شاملاً للبيانات لتعمل بفعالية.
تظهر تحديات قابلية التشغيل البيني من خلال حواجز تقنية متعددة:
- عدم التوحيد القياسي عبر تنسيقات البيانات،
- اعتماد غير متسق لمعايير بيانات الرعاية الصحية مثل HL7 و FHIR،
- وبنيات الأنظمة القديمة المعقدة التي تقاوم مناهج التكامل الحديثة.
- حتى الأنظمة المتوافقة مع FHIR قد لا تضمن قابلية التشغيل البيني السلس بسبب أساليب التنفيذ المختلفة عبر البائعين.
من أجل تكامل مؤثر:
- قم بمراجعة نضج التكامل الحالي قبل إضافة الذكاء الاصطناعي
- إعطاء الأولوية للبائعين الذين لديهم سجلات تشغيل متوافقة مثبتة
- التخطيط لمدة 6-12 شهرًا من أعمال الدمج لكل نظام رئيسي
4. تدريب الموظفين وإدارة التغيير
نجح جزء صغير فقط من مؤسسات الرعاية الصحية في دمج الذكاء الاصطناعي في عمليات سير العمل اليومية.
يحتاج متخصصو الرعاية الصحية إلى فهم عميق لقدرات الذكاء الاصطناعي والقيود والتكامل المناسب في عمليات سير العمل السريرية.
لماذا تفشل برامج التدريب:
- يتجاهل التدريب العام للذكاء الاصطناعي الحقائق السريرية
- لا توجد ممارسة عملية مع سيناريوهات المريض الفعلية
- عدم وجود أبطال الأطباء الذين يفهمون كلاً من الذكاء الاصطناعي والرعاية السريرية
تخلق المستشفيات الفائزة بالذكاء الاصطناعي «سفراء الذكاء الاصطناعي» الداخليين الذين يصبحون مستخدمين محترفين ويدربون أقرانهم. إنه التعلم من نظير إلى نظير، وليس تدريبًا للشركات.
يجب أن تتناول برامج التدريب مجالات الكفاءة المتعددة: تسريع المهارات المدعومة بالذكاء الاصطناعي باستخدام التحليلات التنبؤية لتصميم مسارات التعلم، والتدريب السريري القائم على المحاكاة الذي يتضمن دعم قرارات الذكاء الاصطناعي، والتدريب على الامتثال الذي يغطي المتطلبات التنظيمية الخاصة بالذكاء الاصطناعي..
5. الخصوصية وأمن البيانات
تبلغ تكلفة خروقات بيانات الرعاية الصحية في المتوسط 9.77 مليون دولار لكل حادث.
انخفاض عن عام 2023 عندما كان متوسط تكلفة الاختراق في الصناعة 10.93 مليون دولار..
الأعلى من أي صناعة.
تعالج أنظمة الذكاء الاصطناعي للرعاية الصحية بعض المعلومات الشخصية الأكثر حساسية والتي تتطلب تدابير أمنية استثنائية وحماية الخصوصية. يمكن للثغرات الأمنية في نموذج الذكاء الاصطناعي إعادة إنتاج أجزاء يمكن تحديدها من السجلات الصحية عن غير قصد وإثارة مخاوف جدية بشأن الامتثال لقانون HIPAA و GDPR.
بنية الأمان التي تعمل:
- بيئات الذكاء الاصطناعي الخالية من الثقة مع التدريب الذي يحتوي على فجوات هوائية
- الخصوصية التفاضلية لمعالجة البيانات الحساسة
- يجب على المؤسسات استخدام التشفير وضوابط الوصول وتقنيات الخصوصية التفاضلية وخطوط أنابيب التدريب الآمنة لحماية البيانات الطبية الحساسة.
- المراقبة المستمرة لمخاطر التعرض للبيانات+التطوير الدقيق للسياسات التي تمكن الابتكار مع الحفاظ على الامتثال.
6. الاعتبارات الأخلاقية وتخفيف التحيز
يمكن للذكاء الاصطناعي في مجال الرعاية الصحية أن يجعل المشاكل الحالية أسوأ من خلال علاج بعض المرضى بشكل غير عادل أو مختلف عن الآخرين. قد تقوم هذه الأنظمة بتشخيص مجموعات ديموغرافية معينة بشكل أكثر دقة من غيرها بسبب بيانات التدريب المتحيزة التي تخلق مخاوف أخلاقية بشأن تقديم الرعاية العادلة.
- تتطلب معالجة التحيز الخوارزمي تدريب نماذج الذكاء الاصطناعي على مجموعات بيانات تمثيلية متنوعة والتحقق من الأداء عبر مجموعات سكانية مختلفة.
- التدقيق المنتظم للخوارزميات للتحيز للحفاظ على الشفافية في عمليات صنع القرار
- تأكد من أن المساءلة عن النتائج القائمة على الذكاء الاصطناعي تصبح مكونات أساسية لنشر الذكاء الاصطناعي الأخلاقي.
- يجب على مؤسسات الرعاية الصحية إنشاء عمليات مراجعة أخلاقية لتقييم أنظمة الذكاء الاصطناعي قبل التنفيذ،
- إنشاء فرق تطوير متنوعة تفهم مجموعات المرضى المختلفة
- تنفيذ أنظمة المراقبة المستمرة التي تكتشف التحيز وتصححه عند ظهوره.
7. تكامل سير العمل السريري
يجب أن تتوافق أنظمة الذكاء الاصطناعي مع سير العمل السريري بدلاً من تعطيل أنماط تقديم الرعاية المعمول بها.
هذا يتطلب؛
- فهم كيفية ملاءمة الذكاء الاصطناعي لعمليات صنع القرار السريري الحالية،
- التأكد من أن توصيات الذكاء الاصطناعي تعزز الحكم السريري بدلاً من أن تحل محله،
- تصميم واجهات المستخدم التي تتكامل بشكل طبيعي مع سير عمل مقدم الرعاية الصحية.
يجب أن يحافظ مقدمو الرعاية الصحية على الإشراف البشري على جميع توصيات الذكاء الاصطناعي، مع قيام المهنيين المؤهلين بمراجعة النتائج الناتجة عن الذكاء الاصطناعي والتحقق منها قبل اتخاذ القرارات السريرية.
ابدأ ببرامج تجريبية في مناطق محددة جيدًا لتقييم التأثير وتحديد التحديات قبل النشر على نطاق أوسع.
ثم تأكد من التدريب الشامل للموظفين الذي يغطي قدرات الذكاء الاصطناعي والقيود، والتحقق بانتظام من أداء الذكاء الاصطناعي مقابل النتائج السريرية.
8. اختيار البائع وتقييم التكنولوجيا
يعد الامتثال التنظيمي للبائعين، وخاصة موافقة إدارة الغذاء والدواء الأمريكية أو علامة CE، ومعايير أمان البيانات بما في ذلك الامتثال لقانون HIPAA، والسجلات الحازمة في نشر الذكاء الاصطناعي للرعاية الصحية، بعض الأشياء التي تحتاج كل مؤسسة رعاية صحية إلى تقييمها.
يجب أن يشمل تقييم التكنولوجيا تقييم قابلية شرح نظام الذكاء الاصطناعي (فهم وتفسير توصيات الذكاء الاصطناعي بشكل فعال). يجب على البائعين تقديم وثائق شاملة ودعم مستمر ومسارات ترقية واضحة مع استمرار تطور تقنيات الذكاء الاصطناعي بسرعة.
تصبح علاقات البائعين طويلة الأجل أمرًا بالغ الأهمية حيث تتطلب أنظمة الذكاء الاصطناعي تحديثات مستمرة ومراقبة الأداء والتكيف مع متطلبات الرعاية الصحية المتغيرة. يجب على المؤسسات تقييم الاستقرار المالي للبائعين والالتزام بأسواق الرعاية الصحية والقدرة على تقديم الدعم الفني المستمر على مدى فترات التنفيذ الممتدة.
هل تريد مناقشة استراتيجية الذكاء الاصطناعي للرعاية الصحية الخاصة بك؟ اتصل بخبرائنا لإجراء تقييم سري لاستعدادك للذكاء الاصطناعي.
