سياسة استخدام أدوات الذكاء الاصطناعي في البحث العلمي
المقدمة
تُدرك مجلة دلالات الدور المتزايد لأدوات الذكاء الاصطناعي في البحث العلمي. وبينما تسهم هذه التقنيات في تعزيز الكفاءة وتحقيق رؤى أعمق، يجب استخدامها بمسؤولية وأخلاقية للحفاظ على نزاهة العمل الأكاديمي.
الاستخدام المقبول لأدوات الذكاء الاصطناعي
يجوز للمؤلفين استخدام أدوات الذكاء الاصطناعي مثل ChatGPT أو Grammarly أو DeepL في:
- تحرير اللغة أو الترجمة
- إنشاء الأشكال البيانية
- تحسين النماذج البرمجية أو الحسابية
لكن لا يجوز أن تحل أدوات الذكاء الاصطناعي محل مساهمات المؤلف العلمية أو أن تُستخدم لإنشاء محتوى دون رقابة كاملة.
متطلبات الإفصاح
يجب الإفصاح بشكل واضح عن أي استخدام لأدوات الذكاء الاصطناعي في المخطوطة، مع ذكر:
- اسم الأداة المستخدمة
- الغرض أو المهمة التي استخدمت فيها
ويُدرج هذا الإفصاح في قسم "المنهجية" أو ضمن شكر خاص.
التأليف والمسؤولية
لا يجوز إدراج أدوات الذكاء الاصطناعي كأشخاص مؤلفين. يتحمل الباحثون المسؤولية الكاملة عن المحتوى والدقة والامتثال الأخلاقي لمخطوطاتهم. وقد يؤدي إساءة استخدام الذكاء الاصطناعي، مثل الانتحال أو تزوير البيانات أو التأليف الزائف، إلى رفض أو سحب البحث.
مراجعة السياسة وتحديثها
سيتم مراجعة هذه السياسة بشكل دوري تماشياً مع التطورات التكنولوجية والأخلاقية. وتحتفظ مجلة المنتدى الأكاديمي بحق تعديل الإرشادات بما يتماشى مع أفضل الممارسات.
التواصل والاستفسارات
للاستفسارات حول هذه السياسة، يرجى التواصل مع هيئة التحرير على البريد الالكتروني: