ChatGPTの公開以来、学術論文へのAI使用に関して、各所で大きな議論となっています。その間にも、ChatGPTを著者として記載する論文が出てきており、中には既に出版されているものもあります。
ここでは、出版社、学術誌、学術団体が、AIに関してどのようなポリシーを定めているのか、まとめてみました。
関連ページ
Springer Nature
・大規模言語モデルは著者として研究論文に掲載することはできない。
・大規模言語モデルを使用する研究者は、MethodまたはAcknowledgementsセクションに、その使用を記載しなければならない。(該当するセクションがなければ、Introductionや他の適切なセクションに記載する。)
https://www.nature.com/articles/d41586-023-00191-1
また、この記事の中で、出版社とエディターが、大規模言語モデルによって生成されたテキストを探知することは、恐らく可能だとしています。その理由として、大規模言語モデルは、学習データとプロンプトの統計的な関連性に基づいて語のパターンを生成するので、AIのアウトプットがありきたりで一般的なものになったり、単純なミスが含まれていたりするとのこと。また、AIはアウトプットを生成するのに、まだ参考文献などから引用することができないためとしています。
Science
・AI、機械学習、同様のアルゴリズムツールによって生成されたテキスト、図、表、グラフは、エディターの明確な許可を得ない限り、論文内で使用することはできない。また、AIはScience誌で著者となることはできない。
https://www.science.org/content/page/science-journals-editorial-policies
また、Science誌のEditor-in-ChiefであるH. Holden Thorpは、「これらのポリシーを侵害することは、画像の改ざんや剽窃と何ら変わらない科学的不正行為となる。」とも述べています。
https://www.science.org/doi/10.1126/science.adg7879
Elsevier
・著者が生成AIやAI支援技術を使用する場合、これらの技術は読みやすさや言語を改善するために使用すべきである。
・AIのアウトプットは、不正確であったり、不完全であったり、偏っていたりすることがあるため、技術の適用は人間の監視と管理の下で行われるべきであり、著者は結果を慎重に確認し編集する必要がある。著作物の内容については、著者が最終的な責任と説明責任を負う。
・著者は、AIおよびAI支援技術の使用について原稿で開示する必要があり、出版された著作物には、それらについての声明が掲載される。
・AIやAI支援技術を著者・共著者として記載したり、AIを著者として引用してはならない。
https://www.elsevier.com/about/policies/publishing-ethics
・Elsevierのポリシーには、文法チェッカーなどのソフトは含んでいない。また、Mendeley, EndNote, Zoteroなどの参考文献マネージャーも同様となる。
・AIやAI支援ツールを使用した著者には、原稿の最後、参考文献のすぐ上に、“Declaration of AI and AI-assisted technologies in the writing process”と題したテキストを挿入するように求めている。ここでは、使用したツールとその理由を明記する。
・AIやAI支援ソフトで画像を生成したり、改変することは認めない。(ただし、画像の作成や改変にAIやAI支援ツールを使用することが、研究計画や研究手法の一部である場合は例外とする。)
John Wiley & Sons
・ChatGPTやその他の大規模言語モデルに基づくAIツールは、論文の著者としての役割を果たすことができず、著者として記載することはできない。
・この種のツールを使用して、原稿の何れの一部分を制作した場合、MethodsやAcknowledgementsセクションで、透明性をもって、詳細に、その使用について記述しなければならない。
・著者は、AIツールによって生成された情報の正確性、また、それらの情報が依存するサポート作業を正しく参照することに責任を負う。
・スペルミスや文法を改善するためのツール、一般的な校正はこのガイドラインの範囲には含まれない。
・投稿された原稿、出版された論文の状況において、AIツールの使用が適切であるか、許容されるかについての最終判断は、ジャーナルのエディターまたは出版物の編集規定に責任をもつその他の当事者にある。
https://authorservices.wiley.com/ethics-guidelines/index.html
MDPI
・ChatGPTやその他の大規模言語モデルなどのツールは、オーサーシップの基準を満たしていないため、論文の著者として記載することはできない。
・学術論文の執筆においてAI技術を使用することはできるが、MDPIのジャーナルに投稿する際には、使用について適切に申告する必要がある。このようなケースでは、著者は、Acknowledgmentsセクションにおいて、使用したツールについて完全な透明性を持つ必要がある。また、Materials and Methodsセクションで、どのようにツールが使われたのかを詳細に記載することが求められる。
・MDPIの新しいガイドラインは、AI使用に関するCommittee on Publication Ethics (COPE) の見解に従っている。著者は、AIツールによって制作された部分であっても、原稿の内容に責任を負い、出版倫理に違反した場合にはその責任を負う。(COPEについては後述します。)
https://www.mdpi.com/about/announcements/5687
Oxford University Press
・AIやChatGPTのような大規模言語モデルは、研究成果の内容とその完全性に責任を負うことができないので、著者または共著者として記載することはできない。
・データの収集、分析、解釈など、研究成果の開発におけるAIの使用は、MethodsまたはAcknowledgementsセクションで、適切に引用する必要がある。
・研究者は、AIまたは大規模言語モデルを使用して開発された研究を含む、研究結果の独創性、妥当性、信頼性および完全性について責任を負う。
https://researchsupport.admin.ox.ac.uk/governance/integrity/publication
・AIの使用(例えば、コンテンツの生成、コードの作成、データの分析など)は、編集者へのカバーレターと原稿のMethodsまたはAcknowledgementsセクションの両方で開示する必要がある。
https://academic.oup.com/pages/authoring/journals/preparing_your_manuscript/ethics
American Chemical Society
・AIツールは著者として記載することができない。
・テキストや画像の生成にAIツールを使用した場合は、いつ、どのようにツールを使用したか、Acknowledgmentセクションで開示する必要がある。
・より実質的な使用例やAIツールの使用に関する記述については、Methodsまたはその他の適切なセクションに詳細を記載する。
https://publish.acs.org/publish/author_guidelines?coden=jacsat
IOP Publishing
・IOPは大規模言語モデルやAIチャットボットを使用して、査読レポートを執筆することを、その全部または一部を問わず、認めない。
・査読者は、査読の招待を受けることで、利益相反の報告、査読中の原稿の機密保持、査読者としての匿名性の保持など、IOP Publishingの倫理基準を遵守することに同意するものとする。大規模言語モデルとAIチャットボットは、自分が作成に協力した作品に責任を持つ能力や理解力がないため、分野専門家ではなく、IOP Publishingが定める倫理基準を遵守することができない。
・大規模言語モデルやAIは、出版契約やライセンスに署名する法的人格を備えていない。(AIは著者として記載することはできない。)
https://publishingsupport.iopscience.iop.org/ethical-policy-journals/
Cambridge University Press
・学術論文などの出版物においては、ソフトウェア、ツール、方法論などと同じように、AIの使用を宣言し、明確に説明しなければならない。
・AIはオーサーシップの要件を満たしておらず、ケンブリッジが出版する学術的な著作物において、著者として記載されることはない。
・AIを使用する場合は、ケンブリッジの剽窃ポリシーに違反してはならない。学術的な著作物は、著者自身のものでなければならず、適切な引用と透明性のある参照なしに、他人のアイデア、データ、言葉、その他の材料を提示してはならない。著者は、AIの利用を含め、研究論文の正確性、完全性、独創性に責任を持つ。
Proceedings of the National Academy of Sciences of the United States of America (PNAS) 米国科学アカデミー紀要
・ChatGPTのようなAIソフトが、原稿の何れかの部分の生成を助けるために使用された場合、それを明確に認めなければならなず、Materials and Methods(もしない場合はAcknowledgments)セクションに記載しなければならない。
・ソフトウェアはオーサーシップ要件を満たさず、原稿に対する責任を共有したり、報告されたデータの完全性に責任を負う事ができないため、AIは著者として記載することはできない。
https://www.pnas.org/post/update/pnas-policy-for-chatgpt-generative-ai
Taylor & Francis
・AIツールを著者として記載することはできない。
・AIツールを使用する場合、それらの使用は適切に認められ、文書化されなければならない。
Accountability in Research
Accountability in Researchに投稿するすべての著者は、原稿の執筆、または、原稿中で使用しているアイデアの生成に、自然言語処理システムを使用したことを開示・記述しなければならない。また、数学的、論理的、常識的推論、およびオリジナリティに関して、その事実と引用の正確さに全責任を負う。
開示は、Methodセクション及びReferenceの中で適切に行う。また、著者は、以下のことを明記する必要がある。
さらに、自然言語処理システムで生成されたテキストは、Supplementary materialとして提出するべきである、としています。
https://www.tandfonline.com/doi/full/10.1080/08989621.2023.2168535
Society of Petroleum Engineers
AIによって生成されたコンテンツは、以下の条件で使用することができる。
・AI言語ツールは、出版契約または権利譲渡にサインすることができないため、著者として記載することはできない。
・原稿内で使用されるAIが生成したコンテンツは、十分に吟味され、事実確認され、開示されるべきである。
・AI言語ツールを原稿内で使用する場合、その使用方法を論文の方法論またはAcknowledgementセクションで明確に説明する。説明を行うことなくAIの生成したコンテンツが原稿に含まれる場合、SPEの判断でリジェクトの理由となる。
・AIツールの使用による誤り、矛盾、誤った参照、剽窃、誤解を招く内容については、原稿の著者が責任を負う。
https://jpt.spe.org/spe-policy-on-ai-generated-content-in-publications
The Journal of the American Medical Association(JAMA)
・人工知能、言語モデル、機械学習、類似の技術によって作成されたコンテンツの投稿と出版は、それが正式な研究デザインや方法の一部でない限り推奨されず、作成されたコンテンツとモデルやツールの名前、バージョンと拡張番号、製造元が明確に記述されていなければ許可されない。著者は、これらのモデルやツールによって生成されたコンテンツの完全性に対して責任を負わなければならない。
・人工知能、言語モデル、機械学習、類似の技術には、著者となる資格はない。これらのモデルやツールを使ってコンテンツを作成したり、執筆や原稿作成を支援する場合、著者はこれらのツールによって生成されたコンテンツの完全性に対して責任を持たなければならない。人工知能、言語モデル、機械学習、または同様の技術を使用してコンテンツを作成したり、原稿の執筆や編集を支援したりしたことが、正式な研究デザインや方法の一部である場合は、AcknowledgmentまたはMethodセクションで報告しなければならない。
https://jamanetwork.com/journals/jama/pages/instructions-for-authors
Committee on Publication Ethics (COPE)
・AIツールは論文の著者として記載することはできない。
・AIツールを使用して原稿の執筆、画像や図表の作成、データの収集・分析を行った著者は、Materials and Methodsや類似のセクションで、使用したAIツールと、AIツールの使用方法を開示する透明性を持たなければならない。著者は、AIツールによって制作された部分であっても、原稿の内容に責任を負い、出版倫理に違反した場合にはその責任を負う。
https://publicationethics.org/cope-position-statements/ai-author
World Association of Medical Editors(WAME)
チャットボットに関するWAMEの提言:
・チャットボットは著者となることはできない。
・チャットボットを使用する際には、透明性を確保し、どの様にチャットボットが使用されたかについて情報を提供しなければならない。
・著者は、論文においてチャットボットが行った作業(提示された内容の正確さ、盗用がないことを含む)、およびすべての出典(チャットボットが生成した資料を含む)の適切な帰属について責任を負うものとする。
・編集者は、AIによって生成または改変されたコンテンツを検出するのに役立つ適切なツールが必要であり、それらのツールは編集者の支払い能力に関係なく利用できるものでなければならない。
https://wame.org/page3.php?id=106