نصائح استخدام مع طرح نماذج الذكاء الاصطناعي الطبية للمستهلكين
الإمارات اليوم -

 

 

مع تزايد اعتماد مئات الملايين من الناس على روبوتات الدردشة للحصول على المشورة، بدأت شركات التكنولوجيا بتطوير برامج متخصصة للإجابة عن الاستفسارات الصحية. في يناير، أطلقت OpenAI برنامج ChatGPT Health، الذي يحلل السجلات الطبية وبيانات الأجهزة القابلة للارتداء للإجابة عن الأسئلة الصحية. كما تقدم شركة Anthropic ميزات مماثلة لمستخدمي روبوت Claude. رغم ذلك، تؤكد الشركتان أن هذه الأدوات لا تغني عن الرعاية الطبية المتخصصة، ولا ينبغي استخدامها للتشخيص.

من مميزات هذه الروبوتات أنها تقدم معلومات أكثر تخصيصًا من البحث العادي على الإنترنت، مع مراعاة السياق الطبي للمستخدم. ويوصي الخبراء بتزويدها بأكبر قدر من التفاصيل للحصول على استجابات أفضل. لكنهم يحذرون من استخدامها في الحالات الطارئة مثل آلام الصدر أو ضيق التنفس، حيث يجب التوجه فورًا إلى الطبيب.

من أبرز المخاوف المتعلقة باستخدام هذه البرامج هي الخصوصية. فالمعلومات التي تشاركها مع شركات الذكاء الاصطناعي لا تخضع لقانون HIPAA الذي يحمي البيانات الطبية الحساسة. بدورها تؤكد الشركات أن بيانات المستخدمين محفوظة بشكل منفصل ولا تُستخدم لتدريب النماذج، لكن الخبراء ينصحون بالحذر.

وتعتبر الدراسات المستقلة حول دقة هذه التقنيات لا تزال محدودة.  فعلى الرغم من الحماس المُثار حول الذكاء الاصطناعي، إلا أن الاختبارات المستقلة لهذه التقنية لا تزال في بداياتها. وتشير الدراسات الأولية إلى أن برامج مثل ChatGPT قادرة على اجتياز الفحوصات الطبية المتقدمة بنجاح، ولكنها غالبًا ما تُواجه صعوبات عند التفاعل مع البشر.

كما أظهرت دراسة حديثة أجرتها جامعة أكسفورد على 1300 مشارك أن الأشخاص الذين استخدموا روبوتات الدردشة المدعومة بالذكاء الاصطناعي للبحث عن حالات صحية افتراضية لم يتخذوا قرارات أفضل من أولئك الذين استخدموا البحث عبر الإنترنت أو التقييم الشخصي.

وتمكنت روبوتات الدردشة المدعومة بالذكاء الاصطناعي، عند عرض سيناريوهات طبية عليها بشكل شامل ومكتوب، من تحديد الحالة المرضية الأساسية بدقة 95% من الحالات.

ونقل موقع "ساينس اليرت" عن الباحث الرئيسي آدم مهدي، من معهد أكسفورد للإنترنت: "لم تكن هذه هي المشكلة، بل كانت المشكلة تكمن في التفاعل مع المشاركين الحقيقيين" الذين غالبًا لا يقدمون التفاصيل الكافية. كما أن بعض الردود قد تكون مضللة، مما يصعّب على المستخدمين تمييز الصحيح منها.

ينصح الخبراء باستشارة أكثر من برنامج للتحقق من المعلومات، والاحتفاظ دائمًا بالتشكك وعدم الاعتماد الكلي على الذكاء الاصطناعي في القرارات الصحية، سواء كانت بسيطة أو مهمة.

تابعوا آخر أخبارنا المحلية والرياضية وآخر المستجدات السياسية والإقتصادية عبر Google news

Share
فيسبوك تويتر لينكدين Pin Interest Whats App


إقرأ المزيد