خطط ChatGPT لعلاج السرطان تحتوي على الكثير من الأخطاء - نبضات إخبارية
تابعنا على فيسبوك
أخبار التكنولوجيا

خطط ChatGPT لعلاج السرطان تحتوي على الكثير من الأخطاء

هل يمكن الاعتماد على ChatGPT للحصول على مشورات طبية؟

على الرغم من إطلاقه منذ نوفمبر الماضي، إلا أن الحديث حول روبوت الدردشة الشهير ChatGPT لم يتوقف  حيث يحظى هذا الروبوت بإهتمام كبير من قبل عشاق أدوات الذكاء الاصطناعي.

يعود ذلك إلى قدرته الهائلة على  والاستجابة لجميع الاستفسارات، وكتابة المقالات، وحل المسائل الحسابية المعقدة، وحتى كتابة الشعر والأغاني وبالإضافة إلى ذلك، يمتاز بقدرته على إنشاء محادثات دردشة واقعية ومتناسقة.

تم تدريب ChatGPT على كمية هائلة من بيانات النص

حيث أصيح ChatGPT  قادر على التواصل وإنشاء نصوص تشبه إنتاج الإنسان ومع ذلك، هناك تحذيرات من استخدام ChatGPT في تقديم المشورة الطبية وعلاج الأمراض، حيث يمكن أن يؤدي إلى تشخيص خاطئ أو علاج غير صحيح بالإضافة إلى ذلك هناك دراسة حديثة أثبتت أن روبوت الدردشة الشهير لديه أسلوب يبدو وكأنه يخدع الناس ليعتقدوا أنه أكثر ذكاءً.

توجد خطط علاجية خاطئة في ChatGPT

في أحدث تقييم لمصداقية ودقة ردود ChatGPT فيما يتعلق بالمشورة الطبية، أجرى باحثون دراسة جديدة في مستشفى بريجهام والنساء، التابع لكلية الطب بجامعة هارفارد الأمريكية وأظهرت الدراسة التي نُشرت في دورية JAMA Oncology التابعة للجمعية الطبية الأمريكية، وجود خطط علاجية خاطئة في ChatGPT لعلاج السرطان تتمثل المشكلة في تداخل التوصيات العلاجية الغير مناسبة مع التوصيات الصحيحة، مما يجعل من الصعب التمييز بينهما بشكل خا

20230905 155309 ٠٠٠٠

أظهرت الدراسة ايضا أن روبوت الدردشة ChatGPT يمزج بين المعلومات الصحيحة وغير الصحيحة بشكل محير، مما يجعل من الصعب تحديد ما هو دقيق وفي إطار الدراسة، تم تحليل 104 استفسارات، وتبين أن حوالي 98% من ردود ChatGPT تضمنت توصيات علاجية تتوافق مع إرشادات الشبكة الوطنية الشاملة للسرطان ومع ذلك، وجد الباحثون أن نحو ثلث هذه التوصيات تحتوي على اقتراحات غير صحيحة.

بالإضافة إلى ذلك، تعذر على روبوت الدردشة في كثير من الأحيان تقديم استجابات قابلة للتنفيذ وأظهرت الدراسة أن نحو 12% من الإجابات تعاني من الهلوسة، حيث تضمنت توصيات غير موجودة في إرشادات الشبكة الوطنية الشاملة للسرطان.

اقوال  الباحثون

وأشار الباحثون إلى أن روبوت الدردشة يعبّر في كثير من الأحيان بشكل مؤكد جدًا ومنطقي، وهذا يعرض خطورة خلط المعلومات الصحيحة وغير الصحيحة ومن الصعب حتى على الخبراء تحديد التوصية الخاطئة.

وخلص الباحثون إلى أنه يجب استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي كمكمل للمعلومات الطبية وليس كمصدر أساسي وأكدوا أن المرضى قد يستخدمون هذه التقنيات في تعليم ذاتي، مما يؤثر على عملية صنع القرار المشترك والعلاقة بين المريض والطبيب ولذلك يجب على المرضى والأطباء أن يكونوا على دراية بالقيود المتعلقة بهذه التقنيات.

IMG ٢٠٢٣٠٩٠٥ ١٧١٣٤٥

يوجد عدة أسباب لعدم توصية استخدام ChatGPT للحصول على المشورة الطبية:

 

1. غير مرخص للمشورة الطبية: شركة OpenAI، التي طورت ChatGPT، أكدت أنه غير مرخص لتقديم المشورة الطبية استخدامه في هذا السياق يمكن أن يؤدي إلى تشخيص خاطئ أو علاج غير صحيح.

2. قد يكون مضللاً وغير دقيق: جمعية القلب الأمريكية والجمعية الأمريكية للسرطان حذرتا من استخدام ChatGPT للحصول على المشورة الطبية بسبب احتمالية وجود معلومات غير دقيقة ومضللة قد يتسبب استخدامه في اتخاذ قرارات طبية خاطئة.

3. غياب التنظيم والمراجعة: على الرغم من تدريب ChatGPT على كمية كبيرة من بيانات النص، بما في ذلك بعض البيانات الطبية، إلا أن هذه البيانات لم تتم مراجعتها أو تنظيمها بشكل مناسب وبالتالي، فإن البيانات قد تكون غير دقيقة أو مضللة.

4. احتمالية التحيز قد يكون ChatGPT عرضة للتحيز في تقديم المعلومات، مما يعني أنه قد يقدم معلومات غير دقيقة أو مضللة بشأن بعض المجموعات السكانية.

5. عدم فهم السياق الطبي الفردي ChatGPT غير قادر على فهم السياق الطبي الفردي لكل حالة، وبالتالي قد لا يتمكن من تقديم المشورة الطبية الملائمة لكل حالة بشكل دقيق.

بناءً على هذه الأسباب، ينبغي أن يكون المرضى والأطباء على دراية بقيود استخدام تقنية مثل ChatGPT في المشورة الطبية، ويُفضل الاعتماد على مصادر موثوقة ومتخصصة للحصول على المعلومات الطبية الدقيقة والشاملة.

وهناك بعض الأخطاء التي يمكن أن تحدث عند استخدام ChatGPT للمشورة الطبية أبرزها: مصدر الصورة موقع الاخبار

20230905 155907 ٠٠٠٠

تشخيص خاطئ من ChatGPT

يحتمل أن يقدم ChatGPT معلومات غير صحيحة أو مضللة بشأن حالة طبية محددة، وهذا يمكن أن يؤدي إلى تشخيص خاطئ، وبالتالي يمكن أن يتسبب في تقديم علاج غير مناسب.

العلاج غير المناسب

قد يوصي ChatGPT بعلاج غير ملائم لحالة طبية محددة، وهذا يمكن أن يؤدي إلى تفاقم الحالة أو حتى الوفاة.

العواقب المترتبة على عدم العلاج

قد يثني ChatGPT المستخدمين عن طلب المشورة الطبية المهنية، وهذا يمكن أن يؤدي إلى تأخير العلاج أو عدم تلقي العلاج على الإطلاق، وبالتالي يمكن أن يسبب مضاعفات خطيرة.

لذا، إذا كنت تعاني من مرض أو إصابة، يُرجى استشارة مقدمي الرعاية الصحية المؤهلين، حيث يمكن للأطباء المتخصصين تشخيص حالتك بشكل صحيح وتقديم أفضل علاج ممكن.

اسلام سالم

أنااسلام سالم، عندي 22 سنة،طالب في كلية الإعلام الفرقة الثالثة أتمتع بشغف كبير بالصحافة الرقمية وأمتلك مهارات قوية في التواصل والكتابة وايضا عملت في كثير من المزافه العربية والمصرية.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى