近年、AI技術の発展に伴い、資料作成や研究活動に使用される機会が多くなってきているとみられる。そこで様々な不公平な学術問題に直面することになりました。先日、中国の科学技術部は各種研究活動における、今後AIの使用規制や規定についてのガイドラインを発表しました。catalyst-crossing編集部が中国現地メディアの記事を日本語でお伝えします。
- X (旧Twitter) で投稿
- LINEで送る
- Facebookでシェア
- URLをコピー
1月3日、先月中国の科学技術部が編成配布された、「研究活動の規制と責任に関するガイドライン(2023年)」においては、科学研究者や科学研究機関、大学、保険医療機関、民間企業など(以下「科学研究機関」と総称する)に対して、研究を行う際に、研究責任者たちは研究テーマの選定と実施、及びデータ管理、研究成果の署名、質疑討論、倫理審査、監督管理などの11面から、科学研究機関が一般的に守るべく科学倫理と学術研究規範について提言した。
「ガイドライン」においては、AIによる直接作成した申請資料の使用は禁ずること、AIを成果共同者としてリストに入れないこと、また、科学研究者は科学的・技術的な倫理要件を研究活動の全過程を通じて実施すべきだと強調している。
「ガイドライン」の適用対象は、科学研究機関、大学、保険医療機関、民間企業およびその科学研究者も含まれており、関連の規範要件は主な科学研究活動のプロセスを網羅することが求められる。成果発表問題に関しては、画期的な研究成果や重要な研究進捗の発表は、所在地の科学研究機関の承認が必要であると強調している。そして、研究者は科学的に検証されていない、また査読されていない研究結果を発表しないこと;発表された論文やその中のデータ、写真などを再発表しないこと、および発表された複数の論文から部分的に取り上げて「新しい成果」として統合して発表しないことが言及した。
さらに、「ガイドライン」により、科学技術の開発の際に治験関係者と実験動物に関与する、および直接治験関係者や実験動物に関与しない場合であっても、健康生命、生態環境、公序良俗、持続可能な開発などの面にリスクを与える可能性のある科学研究活動は、規定に従って科学技術倫理の審査を受けるべきである。重大な社会的事件等の緊急事態を伴う科学技術活動を行う場合、科学技術倫理の緊急審査手順及び関連審査事項を守らなければならず、緊急事態による科学技術倫理の審査を回避したり、審査基準を引き下げたりしてはならないことを明確に表明した。
「学術交流を行う時に、学問の自由化を推進し、学術成果の独創性を尊重し、公開性と透明性を堅持すべきである。個人権威、社会地位または社会資源を利用して、他人の学術意見を抑圧してはならない」ということは「白書」が強調している。また、海外の科学技術交流や共同研究に対して、関連データを提供する時に、関連規制に従って承認手続きを実行し、科学技術の機密保持や特定研究成果の公表に関する法規を厳格に遵守しなければならない。
- X (旧Twitter) で投稿
- LINEで送る
- Facebookでシェア
- URLをコピー
コメント
会員登録をすると、コンテンツへのコメントができるようになります!
コメントはありません。