سياسة استخدام أدوات الذكاء الاصطناعي
المقدمة:
في ظل التطور السريع لأدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT من OpenAI، أصبح لهذه الأدوات دور متزايد في دعم الباحثين في مختلف مراحل البحث العلمي، من توليد الأفكار وصياغة المسودات الأولية إلى مراجعة النصوص وتحسين اللغة. ومع ذلك، يقتضي هذا الاستخدام إطارًا أخلاقيًا واضحًا يضمن الأمانة العلمية والشفافية.
أولاً: الضوابط العامة لاستخدام الذكاء الاصطناعي
- المسؤولية الأكاديمية:
تبقى المسؤولية الكاملة عن دقة المحتوى، الأمانة العلمية، والاقتباسات على عاتق الباحث أو الطالب، حتى في حال استخدام أدوات الذكاء الاصطناعي.
- التحقق من المعلومات:
يجب التحقق من صحة أي معلومة يتم توليدها باستخدام أدوات الذكاء الاصطناعي، خاصة فيما يتعلق بالمراجع، الأرقام، والأحداث التاريخية.
- عدم الاعتماد الكامل:
لا يُسمح باستخدام أدوات الذكاء الاصطناعي لكتابة البحث بالكامل دون تدخل فكري وبحثي من قبل الباحث؛ ويُعد ذلك مخالفًا لمعايير الأمانة العلمية.
ثانيًا: المجالات المسموح بها لاستخدام أدوات الذكاء الاصطناعي
يمكن استخدام أدوات مثل ChatGPT في المجالات التالية:
- توليد الأفكار الأولية.
- إعادة صياغة النصوص وتحسين اللغة الأكاديمية.
- تلخيص النصوص الطويلة.
- المساعدة في ترجمة محتوى البحث.
- مراجعة لغوية أو تنظيمية غير تحليلية.
ثالثًا: المجالات غير المسموح بها
- توليد محتوى يتضمن تحليلًا علميًا دون مراجعة دقيقة من الباحث.
- استخدام الذكاء الاصطناعي لتوليد نتائج البحث أو تزوير بيانات.
- إدراج مراجع أو مصادر وهمية.
رابعًا: كيفية الإشارة إلى استخدام أدوات مثل ChatGPT
يجب على الباحث الإفصاح عن استخدام أدوات الذكاء الاصطناعي في منهجية الدراسة أو في قسم الملاحظات/الشكر أو الملاحق، بحسب طبيعة البحث. ويمكن استخدام الصياغة التالية:
مثال توضيحي للإفصاح:
"تم استخدام أداة ChatGPT (من OpenAI) كمساعد لغوي في إعادة صياغة بعض الفقرات وتحسين الأسلوب، دون الاعتماد عليها في توليد محتوى علمي أو نتائج بحثية. تم التحقق من جميع المعلومات والمحتوى الناتج من قبل الباحث."
خامسًا: التزام الباحث
يُعد استخدام أدوات الذكاء الاصطناعي جزءًا من مهارات البحث المعاصرة، شريطة التزام الباحث بمبادئ:
- الشفافية.
- النزاهة العلمية.
- التحقق النقدي من كل ما يُستخدم.