نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
دراسة: محركات البحث بالذكاء الاصطناعي تعتمد على مصادر مضللة بنسبة مقلقة - عرب فايف, اليوم الاثنين 17 مارس 2025 02:36 مساءً
لقد أصبحت أدوات البحث المستندة إلى نماذج الذكاء الاصطناعي التوليدي بديلًا شائعًا لمحركات البحث التقليدية، إذ باتت تجذب شريحة متزايدة من المستخدمين للبحث عن المعلومات بسرعة وسهولة، ومع ذلك كشفت دراسة حديثة صادرة عن مركز تاو للصحافة الرقمية التابع لجامعة كولومبيا عن وجود خلل كبير في دقة هذه النماذج خاصة عند استخدامها كمصدر للأخبار.
فقد أظهرت الدراسة أن نماذج الذكاء الاصطناعي، بما يشمل تلك التي تطورها شركات رائدة مثل: OpenAI و xAI، تميل إلى تلفيق القصص وتقديم معلومات غير صحيحة عند سؤالها عن الأحداث الجارية.
ويثير ذلك مخاوف جدية بشأن دقة المعلومات خاصة مع تزايد اعتماد الجمهور على الذكاء الاصطناعي كمصدر للأخبار، فقد أشارت الباحثتان كلوديا يازفينسكا، وأيسفاريا تشاندراسيكار في الدراسة إلى أن نحو 25% من الأمريكيين يستخدمون الآن نماذج الذكاء الاصطناعي كبدائل لمحركات البحث التقليدية، وهذه النسبة ليست هامشية، بل تعكس تغيرًا جذريًا في سلوك البحث عن المعلومات، مما يجعل الأخطاء التي ترتكبها هذه الأدوات أكثر خطورة، إذ يمكن أن يؤدي تداول معلومات مضللة إلى تشويه الرأي العام، أو اتخاذ قرارات غير صحيحة بناءً على بيانات مختلقة.
تفاصيل الدراسة ونتائجها:
اختبر الباحثون في الدراسة ثمانية أدوات تعتمد في عملها على نماذج الذكاء الاصطناعي التوليدي، ومزودة بخاصية البحث المباشر، وهي: ChatGPT Search، و Perplexity، و Perplexity Pro، و DeepSeek Search، و Gemini، و Grok-2 Search، و Grok-3 Search، و Copilot، وذلك من خلال إجراء 1600 استفسار حول مقالات إخبارية حقيقية.
وتضمنت الاختبارات تغذية نماذج الذكاء الاصطناعي بمقتطفات مباشرة من مقالات إخبارية حقيقية، ثم مطالبة كل نموذج بتحديد عنوان المقال، والناشر الأصلي، وتاريخ النشر، ورابط المقال – عنوان URL – وأظهرت النتائج أن هذه النماذج قدمت إجابات غير صحيحة لأكثر من 60% من الاستفسارات المتعلقة بالمصادر الإخبارية.
وقد تفاوتت معدلات الخطأ بنحو ملحوظ بين النماذج المختبرة، فبينما سجل نموذج (Perplexity) نسبة خطأ بلغت 37%، سجل (ChatGPT Search) معدل خطأ بلغ 67%، في حين تصدر نموذج (Grok-3) القائمة بمعدل خطأ مذهل وصل إلى 94%.نماذج
الذكاء الاصطناعي تميل إلى التلفيق بدلًا من الاعتراف بالجهل:
كشفت الدراسة أيضًا عن وجود توجه مقلق بين نماذج الذكاء الاصطناعي، وهو ميلها إلى تقديم إجابات ملفقة تبدو معقولة، بدلًا من الاعتراف بعدم امتلاكها معلومات موثوقة.
وقد أكد الباحثون أن هذا السلوك لم يقتصر على نموذج واحد، بل كان شائعًا بين جميع النماذج التي جرى اختبارها، مما يشير إلى وجود نمط متأصل في طريقة عمل هذه النماذج.
ولكن كانت المفاجأة الصادمة في أداء الإصدارات المدفوعة من هذه النماذج، إذ تبين أنها أكثر ميلًا إلى تقديم معلومات غير صحيحة مقارنة بالإصدارات المجانية. فعلى سبيل المثال، قدمت منصة (Perplexity Pro) – التي تبلغ قيمة الاشتراك بها 20 دولارًا شهريًا – ومنصة (Grok 3) المدفوعة – التي تبلغ قيمة الاشتراك بها 40 دولارًا شهريًا – إجابات غير صحيحة بثقة أكبر من نظيراتها المجانية.
ومع ذلك تمكنت الإصدارات المدفوعة من الإجابة بنحو صحيح على عدد أكبر من المطالبات، ولكن ميلها إلى تقديم إجابات غير مؤكدة أدى إلى ارتفاع معدل الخطأ الإجمالي، ويشير ذلك إلى أن الإصدارات المدفوعة قد تكون مصممة لتقديم إجابات واثقة بغض النظر عن دقتها، مما يثير تساؤلات حول مدى موثوقية هذه النماذج في تقديم معلومات دقيقة.
تحديات للناشرين:
ظهرت مشكلات أخرى في الدراسة، إذ اكتشف الباحثون وجود أدلة على أن بعض أدوات الذكاء الاصطناعي تجاوزت إعدادات (بروتوكول استبعاد الروبوتات) Robot Exclusion Protocol، وهو البروتوكول الذي يستخدمه الناشرون لمنع الوصول غير المصرح به إلى محتواهم، فعلى سبيل المثال، تمكن الإصدار المجاني من (Perplexity) من الوصول إلى جميع المقتطفات العشرة من محتوى (ناشيونال جيوغرافيك) المدفوع، مع أن (ناشيونال جيوغرافيك) تحظر صراحةً برامج زحف الويب الخاصة بـ (Perplexity).
ولم تتوقف المشكلة عند هذا الحد، ففي كثير من الأحيان وجهت محركات البحث بالذكاء الاصطناعي المستخدمين إلى نسخ مُعاد نشرها للمحتوى عبر منصات مثل: Yahoo News، بدلًا من مواقع الناشرين الأصليين. وقد حدث ذلك حتى في الحالات التي كانت فيها اتفاقيات ترخيص رسمية بين الناشرين وشركات الذكاء الاصطناعي.
وتصنع هذه المشكلات تحديات كبيرة للناشرين، الذين يجدون أنفسهم أمام خيارات صعبة، فمن ناحية، قد يؤدي حظر برامج الزحف بالذكاء الاصطناعي إلى فقدان الإسناد بالكامل، مما يحرمهم من الاعتراف بجهودهم، ومن ناحية أخرى، فإن السماح لهذه البرامج بالوصول إلى المحتوى قد يؤدي إلى إعادة استخدامه على نطاق واسع دون توجيه الزيارات إلى مواقع الناشرين الأصليين، مما يؤثر سلبًا في إيراداتهم.
مسؤولية المستخدمين في عصر الذكاء الاصطناعي:
أعرب مارك هوارد، الرئيس التنفيذي للعمليات في مجلة تايم، عن قلقه البالغ بشأن التحديات التي يواجهها الناشرون في التحكم بكيفية استيعاب نماذج الذكاء الاصطناعي لمحتواهم وعرضه، وأشار إلى أن هذا الأمر قد يؤدي إلى الإضرار بالعلامات التجارية للناشرين، خاصة إذا قُدمت معلومات إخبارية مغلوطة للمستخدمين، واستشهد بمثال حديث، إذ واجهت (BBC News) مشكلة مع شركة آبل بسبب ملخصات إشعارات (Apple Intelligence)، التي أعادت صياغة التنبيهات الإخبارية بشكل غير دقيق.
ومع ذلك أبدى هوارد تفاؤله بإمكانية تحسين هذه الأدوات في المستقبل، مؤكدًا أن اليوم هو الأسوأ الذي سيكون عليه المنتج على الإطلاق، في إشارة إلى الاستثمارات الكبيرة والجهود الهندسية المبذولة لتطوير هذه التقنيات.
وفي الوقت نفسه، وجه هوارد انتقادات للمستخدمين، محملًا إياهم مسؤولية التحقق من دقة المعلومات التي تقدمها أدوات الذكاء الاصطناعي المجانية. وقال: “إذا كان أي مستهلك يعتقد الآن أن أي من هذه المنتجات المجانية ستكون دقيقة بنسبة 100% فاللوم عليه”.
وأكد هوارد أن نتائج الدراسة لم تكن مفاجئة، لأن النماذج اللغوية الكبيرة تواجه صعوبات في فهم المعنى الحقيقي للمعلومات، وتعتمد بنحو كبير على أنظمة الإكمال التلقائي، مما يجعلها ترتجل في تقديم الإجابات.
وقد قدمت شركتا OpenAI ومايكروسوفت بيانات لمجلة كولومبيا للصحافة (CJR)، تؤكد استلامها لنتائج الدراسة، لكنها لم تتطرق إلى المشكلات المطروحة بنحو مباشر، إذ أكدت OpenAI التزامها بدعم الناشرين من خلال زيادة الزيارات إلى مواقعهم عبر الملخصات والاقتباسات والروابط الواضحة والإسناد المناسب، في حين صرحت مايكروسوفت بأنها تلتزم ببروتوكولات استبعاد الروبوتات وتوجيهات الناشرين.
نسخ الرابط تم نسخ الرابط
0 تعليق