ابزارهای هوش مصنوعی (AI)، انتشارات علمی را با چالشی بیسابقه در زمینه حفظ اصالت و یکپارچگی پژوهش مواجه کرده است. هوش مصنوعی ابتدا به عنوان ابزاری برای افزایش بهرهوری دیده میشد. با اینحال اکنون به دلیل سوء استفادههای گسترده و غیرشفاف، عامل اصلی موج جدیدی از ریترکت (Retraction) مقالات علمی شده است.
این ریترکتها دیگر صرفاً ناشی از خطاهای دادهای تصادفی نیستند، بلکه پیامد مستقیم نقض جدی اخلاق نشر و مسئولیتپذیری نویسندگان محسوب میشوند. البته این نکته بدین معنا نیست که هر اقدامی با کمک هوش مصنوعی منجر به ریترکت مقاله میشود. مثلا اقداماتی چون ترجمه مقاله با هوش مصنوعی یا بازنویسی آن (در صورت عدم تاثیر بر درصد مشابهت هوش مصنوعی)، تاثیر خاصی بر مقاله شما ندارند.
ریترکت مقاله بیشتر در حالتی رخ میدهد که اثبات شود شما در موارد غیرمجاز از ابزارهای هوش مصنوعی استفاده کردهاید. مثلا پژوهش را انجام ندادهاید و نتایج را با کمک ابزارهای هوش مصنوعی به دست آوردهاید. یا اینکه نوشتن بخشی یا تمام مقاله خود را با هوش مصنوعی انجام دادهاید.
برای آشنایی با دلایل ریترکت مقالات نوشتهشده با هوش مصنوعی و جلوگیری از وقوع آن، این مطلب سایت ترجمه ترجمیک را تا پایان مطالعه کنید.
مطالب مرتبط:
چرا یک مقاله ریترکت یا سلب اعتبار میشود؟

در این مطلب خواهید خواند:
ریترکت مقاله چیست؟
ریترکت مقاله، رسمیترین شکل ابراز عدم اعتماد ناشر به اعتبار یک اثر منتشرشده است! در گذشته، دلایل عمده ریترکت شامل خطاهای جدی در دادهها یا سرقت ادبی صریح بود. با این حال، در عصر هوش مصنوعی، ناشران بزرگی چون Elsevier و Springer Nature، با پدیدهای مواجه شدهاند که تهدیدی برای فرآیند داوری و پذیرش محسوب میشود.
یکی از این تهدیدها، حجم بالای مقالات نامربوط و بیمعنی تولیدشده توسط هوش مصنوعی است. این مورد، توسط برخی متخصصان به عنوان «حملات انکار سرویس» (Denial of Service Attacks) علیه زیرساختهای داوری ژورنالها توصیف شده است. این پدیده، تمرکز هیئتهای تحریریه را از ارزیابی کیفیت علمی به مقابله با تقلبهای سازمانیافته تغییر داده است!
تفاوت میان استفاده مسئولانه و سوء استفاده
سیاستهای انتشاراتی بین استفاده مسئولانه و سوء استفاده از هوش مصنوعی تمایز قائل میشوند. استفاده از ابزارهای هوش مصنوعی برای بهبود و ویرایش تخصصی، کنترل دستور زبان یا تبدیل گفتار به نوشتار (Language Editing) اغلب مجاز و در برخی موارد، از افشا معاف است.
با این حال، استفاده از هوش مصنوعی برای تولید محتوای اصلی (متن، داده یا تصاویر) که به صورت قابل توجهی بر یافتهها یا نتیجهگیریها تأثیر بگذارد، مستلزم افشای دقیق است. سوء استفاده زمانی رخ میدهد که نویسنده به طور غیرشفاف، ابزارهای هوش مصنوعی را جایگزین مشارکت فکری خود کند و مسئولیت اعتبارسنجی خروجیهای آن را بر عهده نگیرد.

این گزارش سه دلیل مهمی را که منجر به ریترکت مقالات AI-محور میشوند، مورد بررسی قرار میدهد:
- نقض اصل پاسخگویی انسانی در نویسندگی
- تحریف فرآیند تحقیق (Falsification) از طریق عدم شفافیت
- تولید دادهها و ارجاعات ساختگی توسط هوش مصنوعی (Hallucination).
خط قرمز ناشران: چرا هوش مصنوعی نمیتواند مؤلف باشد؟
اصلیترین دلیل ریترکت مقالات تولید شده توسط هوش مصنوعی، نقض اصل بنیادین «پاسخگویی انسانی» در فرآیند نگارش علمی است. ناشران بزرگ و نهادهای اخلاقی به صراحت اعلام کردهاند که ابزارهای هوش مصنوعی نمیتوانند به عنوان نویسنده یا همکار نویسنده در مقالات علمی شناخته شوند.
مطالب مرتبط:
پنج سایت برتر تشخیص مقاله هوش مصنوعی
مفهوم پاسخگویی انسانی (Human Accountability)؛ هسته اخلاق نشر
نویسندگی در حوزه علمی یک تعهد اخلاقی و حقوقی است. بر اساس رهنمودهای ناشرانی مانند Elsevier، هر نویسنده باید اطمینان حاصل کند که سؤالات مربوط به صحت یا یکپارچگی هر بخش از کار به طور مناسب بررسی و حلوفصل شدهاند. علاوه بر این، نویسندگی مستلزم توانایی تأیید نسخه نهایی کار و موافقت با ارسال آن است.
هوش مصنوعی فاقد این تواناییها و جایگاه قانونی است. یک مدل زبانی بزرگ نه میتواند دارای حق تکثیر (Copyright) باشد، نه میتواند مورد پیگرد قانونی قرار گیرد. هم چنین مدلهای هوش مصنوعی نمیتوانند در قبال صحت دادهها در یک دعوای حقوقی پاسخگو باشد.
نویسنده انسانی که از ابزار هوش مصنوعی استفاده میکند، مسئولیت کامل محتوا، شامل صحت تمامی ادعاها، استنادات، و تحلیلها را بر عهده دارد. هرگونه عدم شفافیت در استفاده از AI، به معنای انتقال مسئولیت کار ماشین به انسان، بدون انجام وظایف نظارتی، است که میتواند منجر به ریترکت شود.

موضع رسمی نهادهای کلیدی (Elsevier, Springer Nature, COPE)
نهادهای کلیدی اخلاق نشر و ناشران بزرگ مواضع یکسانی را در قبال نویسندگی هوش مصنوعی دارند. کمیته اخلاق نشر (COPE) و انجمن جهانی ویراستاران پزشکی (WAME) به صراحت اعلام کردهاند که باتهای هوش مصنوعی مجاز نیستند به عنوان نویسنده شناخته شوند.
همچنین انتشارات مختلف نیز صریحاً اعلام میکنند که فناوری هوش مصنوعی نمیتواند توانایی «آغاز یک پژوهش اصیل» را بدون راهنمایی انسان داشته باشد. بنابراین نمیتواند به عنوان نویسنده در نظر گرفته شود. این موضعگیریهای یکپارچه نشان میدهند که اعتماد در نشر علمی، به طور انحصاری، متکی بر ضمانت نویسندگان انسانی است.
مطالب مرتبط:
۵ تخلف علمی رایج در مقالهنویسی و پژوهش
مقایسه سیاستهای ناشران بزرگ در قبال استفاده از هوش مصنوعی
|
ناشر/نهاد |
موضع در مورد نویسندگی AI |
الزام به افشا (Disclosure) |
قوانین داوری (Peer Review) |
|
Elsevier |
اکیداً ممنوع؛ نویسندگی فقط برای انسانهای پاسخگو |
اجباری (به جز ابزارهای گرامری)؛ در بخش روشها یا تقدیر و تشکر |
منع استفاده داوران از ابزارهای AI عمومی |
|
Springer Nature |
ممنوع |
اجباری (به جز ویرایش زبان)؛ جزئیات در بخش روشها |
منع داوران از آپلود دستنوشتهها به دلیل مسائل محرمانگی |
|
Wiley |
ممنوع؛ AI فاقد جایگاه قانونی برای حق تکثیر است |
اجباری؛ شفاف و با جزئیات در بخش روشها یا تقدیر و تشکر |
استفاده از AI در داوری باید محدود و افشا شود |
|
COPE (اخلاق نشر) |
ممنوع؛ AI فاقد مسئولیت قانونی و حق امضاء است |
اجباری؛ شفافیت در مورد ابزار و نحوه استفاده در بخش روشها |
عدم رد صرفاً بر اساس شک؛ اقدام متناسب با شواهد |
از سرقت ادبی تا جعل پژوهش با هوش مصنوعیهای مقالهنویسی
تحلیلگران اخلاق نشر معتقدند که سوء استفاده غیرشفاف از هوش مصنوعی در تولید مقالات، تخلفی شدیدتر از سرقت ادبی سنتی است. این تخلف مستقیماً در دسته «تحریف یا جعل پژوهش» قرار میگیرد. این طبقهبندی شدت مجازاتها و احتمال ریترکت را به طور قابل توجهی افزایش میدهد.
سرقت ادبی مبتنی بر هوش مصنوعی (که برخی آن را AIgiarism مینامند) شکلی از «سرقت ادبی دورزننده» است. در این نوع سرقت ادبی، متن موجود توسط هوش مصنوعی بازنویسی میشود تا از تشخیصهای سنتی جلوگیری کند. این عمل خطر انتشار محتوای غلط و مغرضانه را در بر دارد.

اگر نویسندهای متن تولیدشده توسط AI را، بدون مشارکت فکری یا نظارت کافی، به ژورنال ارائه دهد و ادعا کند که خود آن را نوشته، چه میشود؟ کارشناسان استدلال میکنند که این عمل از سرقت ادبی فراتر رفته و به تحریف فرآیند گزارشدهی پژوهش تبدیل میشود.
در تحریف، نویسنده، فرآیند پژوهش را دستکاری میکند تا محتوای غیرقابل اعتماد یا غیردقیق را به عنوان محصول کار فکری و اصیل خود عرضه کند. حتی اگر هدف نویسنده فریبکاری عمدی نبوده باشد و خطایی در دادهها ظاهر شود، پنهانکاری در مورد منشاء تولید متن، خود به منزله تحریف اصالت و صحت پژوهش است.
یکی از دلایل اصلی که استفاده از AI منجر به سوء رفتار میشود، پدیده «تخلیه شناختی» است. این مفهوم به وضعیتی اشاره دارد که در آن نویسنده، وظایف حیاتی نگارش و تحلیل را به ماشین واگذار میکند. در این حالت، او سرمایهگذاری فکری لازم را برای فهم کامل و اعتبارسنجی محتوا انجام نداده است. معمولا هدف از این کار سریعتر نوشته شدن مقاله است.
نکته: نویسنده انسانی که خروجی AI را تأیید میکند، باید حداقل سرمایهگذاری فکری را برای تأیید صحت آن انجام دهد.
افشای اجباری استفاده از هوش مصنوعی: چه چیزی و کجا؟
برای جلوگیری از تحریف و حفظ یکپارچگی، ناشران نیازمند افشای اجباری استفاده از هوش مصنوعی هستند. این افشا باید کاملاً شفاف و جزئی باشد.
ناشران از نویسندگان میخواهند که نه تنها ابزار مورد استفاده را مشخص کنند، بلکه نحوه استفاده (مثلاً برای خلاصه کردن نتایج یا نوشتن بخش مقدمه) را نیز شرح دهند. برای استفادههای قابل توجه، برخی ناشران ممکن است حتی جزئیاتی مانند «پرامپتهای استفادهشده» را برای اطمینان از قابلیت بازتولید و ارزیابی اصالت فکری نویسنده مطالبه کنند.
مکان افشای این اطلاعات معمولاً یکی از دو بخش زیر است:
- بخش روشها: برای تشریح استفاده از AI در جمعآوری، تحلیل داده یا تولید محتوا.
- بخش تقدیر و تشکر: برای تشریح استفادههای جزئیتر مانند ویرایش زبان.
نقطه ضعف AI: توهمزایی و تولید دادههای ساختگی
یکی از دلایل فنی و محتوایی اصلی ریترکت مقالات AI-محور، پدیده توهمزایی (Hallucination) است. این پدیده به تولید محتوای به ظاهر موثق اما کاملاً نادرست یا بیاساس توسط مدلهای زبانی بزرگ اطلاق میشود.
توهمزایی در متون علمی، برخلاف یک خطای ساده، به تولید حقایق، آمار، یا اغلب ارجاعات به طور کاملاً ساختگی اطلاق میشود. شرکت OpenAI توضیح میدهد که مدلهای زبانی بزرگ تشویق میشوند تا به جای اعتراف به عدم قطعیت، حدس بزنند و پاسخهای خود را با اطمینان بالا ارائه دهند. هنگامی که مدل فاقد اطلاعات لازم باشد، به جای سکوت، پاسخی تخمینی و «پذیرفتنی» تولید میکند. در محیط علمی، این حدسها در قالب ارجاعات یا دادههای تحقیقاتی غیرواقعی نمود پیدا میکنند.
وجود دادههای ساختگی در مقاله، فراتر از یک خطای تایپی یا سهوی است؛ این نشان میدهد که نویسنده وظیفه اساسی خود را که همان «بررسی و اعتبارسنجی تمامی ارجاعات» است، به یک ماشین تفویض کرده و مسئولیتپذیری نهایی خود را نادیده گرفته است.
مطالب مرتبط:
صفر تا صد مقابله با سرقت ادبی هوش مصنوعی
علائم هشداردهنده ریترکت مقاله به دلیل استفاده از هوش مصنوعی
ابزارهای تشخیص هوش مصنوعی به تنهایی قابل اعتماد نیستند. به همین دلیل، برای تشخیص استفاده از هوش مصنوعی در مقالهنویسی از روشهای ترکیبی استفاده میشود. متخصصان اخلاق نشر و داوران علمی، الگوهای زبانی و ساختاری خاصی را شناسایی کردهاند که وجود هوش مصنوعی غیرمجاز را نشان میدهند. این علائم، شواهد قوی برای ریترکت فراهم میکنند.

نشانههای فنی زبانشناختی:
- عبارات کلیدی پلتفرمی مانند: “As an AI language model” یا باقی ماندن دستوراتی چون “Regenerate response” در متن.
- استفاده از کلمات نامتعارف و غیرمنطقی برای جایگزینی اصطلاحات علمی استاندارد اشاره دارد.
راهکار جایگزین: بازگشت به داوری انسانی
تکیه صرف بر نرمافزارهای تشخیص روشی شکست خورده است. بنابراین نهادهای اخلاقی مانند COPE توصیه میکنند که تمرکز باید بر داوری انسانی و بررسی شواهد زمینهای باشد.
بهترین روش برای شناسایی سوء استفاده شامل موارد زیر است:
بررسی سبک نویسنده: داوران باید تغییرات ناگهانی در سبک نویسندگی، سطح واژگان، یا پیچیدگی جملات در مقایسه با آثار قبلی همان نویسنده را بررسی کنند.
ناهماهنگیهای محتوایی: تمرکز بر روی خطاهای منطقی، آماری (مانند استفاده غیرمنطقی از مقادیر)، یا ناتوانی نویسنده در ارائه دادههای خام یا پاسخگویی به سؤالات عمیق داوران در مورد جزئیات روششناسی.
محرمانگی: جلوگیری از آپلود دستنوشتههای در دست بررسی به ابزارهای AI عمومی توسط داوران، برای حفظ محرمانگی و حق تکثیر محتوای منتشر نشده.
بهترین شیوهها برای محققان در استفاده مسئولانه از AI
محققانی که مایلند از هوش مصنوعی به عنوان ابزار کمککننده استفاده کنند، باید اصول اخلاقی مشخصی را رعایت کنند. نویسنده نهایی موظف است تمامی خروجیهای هوش مصنوعی (شامل حقایق، آمار و مهمتر از همه، ارجاعات) را با منابع موثق انسانی بازبینی و تأیید کند. افشای دقیق در مورد اینکه کدام ابزار AI در کدام بخش (تحلیل، نگارش، تولید تصاویر) استفاده شده است.
مسئولیت انسانی در مسیر تکامل هوش مصنوعی
ریترکت مقالات نوشتهشده با هوش مصنوعی یک روند صرفاً فنی نیست. بلکه نشاندهنده شکست در حفظ اصول اخلاقی شفافیت و پاسخگویی است. هوش مصنوعی ابزاری قدرتمند است که میتواند به عنوان «توسعهدهنده شناختی» برای افزایش ظرفیت پژوهشگران استفاده شود، اما هرگز نمیتواند جایگزین مسئولیتپذیری، قضاوت اخلاقی، یا توانایی تأیید صحت دادههای علمی شود.
ریترکت مقالات AI، در اغلب موارد، نتیجه مستقیم نادیده گرفتن این مسئولیت حیاتی (فقدان اعتبارسنجی) و پنهانکاری در مورد منشأ محتوا (تحریف فرآیند) است. جامعه علمی تنها از طریق پذیرش شفافیت کامل در مورد تعامل انسان و ماشین میتواند اعتبار و یکپارچگی پژوهش را در عصر هوش مصنوعی حفظ کند.
با خدمات هیومنایز متن هوش مصنوعی ترجمیک آشنایی دارید؟ اگر از هوش مصنوعی برای نوشتن بخشهایی از مقاله خود استفاده کردهاید، به راحتی قابل تشخیص است. در خدمات انسانیسازی مقاله ترجمیک، ویراستاران متخصص متن شما را بازنویسی میکنند تا علائم هوش مصنوعی بودن آن پاک شود.
