ويكيبيديا تفرض قيوداً على استخدام الذكاء الاصطناعي في كتابة المحتوى
أعلنت منصة ويكيبيديا النسخة الإنجليزية عن خطوات جديدة تهدف إلى تقنين استخدام الذكاء الاصطناعي في كتابة وتحرير المقالات. هذا القرار يأتي في إطار سعي المنصة لتعزيز جودة المحتوى والانضباط في سياسات النشر المعلنة.
أشارت ويكيبيديا إلى أن الاعتماد على تقنيات الذكاء الاصطناعي قد يفضي إلى انتهاك عدد من القواعد الأساسية، حيث يمكن للنماذج اللغوية أن تُنتج معلومات غير دقيقة أو غير موثوقة، حتى عند استخدامها في مهام تحريرية بسيطة. لذا، تعتبر هذه الخطوة ضرورية لرفع مستوى المصداقية في المحتوى.
إطار استخدام النماذج اللغوية
تسمح السياسة الجديدة باستخدام النماذج اللغوية الكبيرة (LLMs) في نطاق ضيق، مثل تحسين الصياغة للمحتوى الذي يكتبه المحررون، طالما يخضع لمراجعة دقيقة ويؤكد مطابقته للمصادر المنشورة. كما يُسمح باستخدامها في عمليات الترجمة، ولكن بشروط تقتضي إلمام المستخدم باللغتين للتأكد من عدم وجود أخطاء.
تحذّر ويكيبيديا من أن هذه النماذج يمكن أن تؤثر على المعنى الأصلي للنص أو تضيف معلومات غير موثقة، مما يستدعي فرض تدقيق بشري صارم قبل النشر.
تحديات الجودة والمصداقية
شهدت ويكيبيديا، خلال العامين الماضيين، تزايدًا في المحتوى ضعيف الجودة الناتج عن استخدام الذكاء الاصطناعي. وقد أبدى المحررون مخاوفهم حيال الأخطاء المعلوماتية والمصادر الوهمية في هذه المقالات، مما زاد من الضغط على نظام المراجعة البشرية وأثار تساؤلات حول مصداقية المنصة في المستقبل.
تباين السياسات بين النسخ المختلفة
لا تعتبر ويكيبيديا كيانًا موحدًا من حيث السياسات؛ كل نسخة لغوية لها قواعد خاصة بها. بينما تخطو النسخة الإنجليزية في اتجاه تقليص استخدام الذكاء الاصطناعي مع بعض الاستثناءات، اتخذت النسخة الإسبانية خطوة أكثر تشددًا بحظر هذا الاستخدام تمامًا. أما في النسخة العربية، فلا توجد سياسة معلنة حتى الآن، ولكن الالتزام بالاستشهاد بمصادر موثوقة وضرورة الحياد والدقة يعد جزءًا من القواعد الأساسية.
يستمر التحدي الرئيسي في رصد المحتوى المُنشأ بالذكاء الاصطناعي، حيث عدم وجود أدوات دقيقة تمامًا لاكتشافه قد يُسهل مرور بعض النصوص دون تدقيق. وهذا يتطلب الاعتماد على خبرة المحررين في اكتشاف الأخطاء والنماذج اللغوية غير الطبيعية.




