医薬品・医療機器 GxP CSV要件に応える
コンサルティングサービス

NEWS

AI-大規模言語モデル (LLMs) 利用時の欧州 『EMA: 欧州医薬品庁/ HMA: 欧州医薬品庁長官』からの指導原則(欧州規制当局内向け)提示と、 EMA AI 関連レター発表 のご紹介Letter from the European Medicines Agency (EMA) and the Commissioner of the European Medicines Agency (HMA) regarding the use of AI-LLMs and Guiding Principles (for internal EU Regulatory Authorities).

お客さま 各位

いつもお世話になっております。㈱ヒロファーマコンサルティング® 集(あつまる)です。

さて今回は、AI, LLMs (Large Language Models: 大規模言語モデル)について、欧州(EMA・HMA)での動向の一部をご紹介します。

2024年8月29日付でEMA・HMAから公開されています「AI-LLMsの指導原則」と、2024年9月5日に EMAから発表された Newsletterの概要をお知らせします。

<大規模言語モデル (LLM) は、大量のテキストデータでトレーニングされた生成AIまたは基盤モデルのカテゴリであり、入力または要求 (プロンプト) に対する自然言語応答を生成できるものです。ChatGPTはそのうちの代表的な製品の一つ。>

I] [Guiding principles on the use of large language models in regulatory science and for medicines regulatory activities: 29 August 2024]

「規制科学および医薬品規制活動における大規模言語モデルの使用に関する指導原則」

https://www.ema.europa.eu/en/documents/other/guiding-principles-use-large-language-models-regulatory-science-medicines-regulatory-activities_en.pdf

  1. まず最初のポイントは、ドキュメント名が [Guiding principle on use of large language model in …]となっており「基本原則」となっている点です。

  2. また、二点目(ここが重要な点ですが。。)は、対象が [in regulatory science and for medicines regulatory activities.] となっており、「規制科学」・「医薬品規制」業務を実施する時の基本原則です。つまり、EMA内部と欧州各国規制当局での「規制活動」時に遵守すべき「指導原則」の位置づけです。と言うことは、「規制対象企業や関連する組織(製薬メーカや医療機器メーカ、医療機関)等」向けではまだ無いと言うことです

  3. 最近の LLMs(例えば ChatGPTなど)の利用が進展する中で、EMA内部や EU各国の規制当局での、AI/ LLMsの利用が始まってきており、業務効率化に役立ってきている。

  4. がしかし、「無条件に AI/ LLMsを規制業務に利用してはいけません。正しく科学的に合理的に考えてAIを使うように・・・・」との EMA・HMAからの意思表示のアナウンスです。

  5. その内容は、2024年度時点での、AI/ LLMsを取り巻く環境や、そのAI/ LLMsの定義や機能、および注意点が要領よく 10頁にまとめられており、大変参考になる内容です。

  6. みなさまお客さまの組織でも、「AI機能をどこまで自社内・自組織内での実ビジネスで利用できるのか?AI特有の注意点をどのように、組織内のメンバーに遵守させるべきか?」を日々検討されているかと推察致します。この意味では、若干「目的外利用ではありますが」、この EMA・HMAの基本原則を「参照」することで、現段階(2024-2025年度)での、社内・自組織内への「AI活用の注意点」として参考にできるかと思います。

 

  1. Scope

This document provides guiding principles on the use of general-purpose large language models (LLM) in regulatory science and for regulatory activities and provides high-level recommendations to

regulatory authorities to facilitate the safe, responsible and effective use of LLMs.

EMA_HMA_AI-LMMs

 

II] [Harnessing AI in medicines regulation: use of large language models (LLMs) : 5 September 2024

「医薬品規制におけるAIの活用: 大規模言語モデル (LLM) の使用」

https://www.ema.europa.eu/en/news/harnessing-ai-medicines-regulation-use-large-language-models-llms

 

本レターに関しては、短い通知なので一部引用(英語 Original・日本語)を以下に示します(日本語訳は、HiroPharmaConsultingによる)。

“EMA and the Heads of Medicines Agencies (HMA) have published high-level principles and recommendations for all staff across the European medicines regulatory network (EMRN) using large language models (LLMs) in their work.

LLMs are a category of generative AI, whose applications can significantly support medicine regulators in their tasks and processes. Whether they are used to query the extensive documentation regulators routinely receive, to automate knowledge/data mining processes, or as virtual AI assistants in everyday administrative tasks – LLMs have enormous transformative potential.

However, LLMs also present challenges, e.g. variability in results, returning of irrelevant or inaccurate responses (so-called hallucinations), and potential data security risks. The purpose of the guiding principles is to build understanding of the capabilities and limitations of these applications among staff at regulatory agencies across the EU so that they can harness the potential of LLMs effectively and avoid pitfalls and risks.

The guiding principles cover various aspects of using LLMs, from ensuring safe input of data, to applying critical thinking and cross-checking outputs, to knowing whom to consult when concerns arise. Responsible use of LLMs requires familiarity with the tools. The importance of continuous learning is emphasised to keep pace with the fast-changing field.

Additionally, the principles encourage regulatory agencies to make efforts to support their staff in using LLMs. This includes defining governance on the use of LLMs, specifying permitted use cases, providing training and monitoring risks.

The guiding principles are one of the deliverables of the multiannual AI workplan to 2028 by EMA and the Heads of Medicines Agencies (HMA). This workplan guides EMA and the EMRN in their use of AI, maximising the benefits while managing the risks, and facilitating information sharing.

The guiding principles are a living document that will be regularly updated, and EMA will introduce it to the network in a webinar on 13 September 2024. This is one of the various events and information sharing opportunities organised in the context of the AI workplan.”

———————-(EMA Letter on 5-Sep-2024  日本語訳 by HiroPharmaConsulting)——————–

”EMAと医薬品庁長官 (HMA) は、業務で大規模言語モデル (LLMs) を使用する欧州医薬品規制ネットワーク (EMRN) のすべてのスタッフ向けに、ハイレベルの原則と推奨事項を公開しました。

LLMsは生成型AIのカテゴリであり、そのアプリケーションは医薬品規制当局のタスクとプロセスを大幅にサポートすることができます。規制当局が日常的に受け取る広範な文書を照会するために使用される場合でも、知識/データマイニングプロセスを自動化するために使用される場合でも、日常の管理タスクにおける仮想AIアシスタントとして使用される場合でも、LLMsには大きな変革の可能性があります。

しかし、LLMsには、結果のばらつき、不適切または不正確な応答 (いわゆる幻覚 [Hallucinations]) での回答戻しや、潜在的なデータセキュリティリスクなどの課題もあります。

指針の目的は、EU全域の規制当局の職員がLLMsの可能性を効果的に活用し、落とし穴やリスクを回避できるように、これらのアプリケーションの機能と限界について理解を深めることです。

指針は、データの安全な入力を確保することから、クリティカルシンキングの適用とアウトプットのクロスチェック、懸念が発生したときに誰に相談すべきかを知ることまで、LLMsの使用に関するさまざまな側面をカバーしています。LLMsの責任ある使用のためには、ツールに精通していることが必要です。急速に変化する分野に対応するために、継続的な学習の重要性が強調されています。

さらに、指針は規制当局に対し、LLMsの使用に関するガバナンスの定義、許可されたユースケースの指定、トレーニングの提供、リスクの監視など、LLMsの使用に関するスタッフをサポートする努力をするよう促しています。

指針は、EMAと医薬品庁長官 (HMA) による2028年までの複数年のAI作業計画の成果物の一つです。この作業計画は、EMAとEMRNがAIを利用し、リスクを管理しながらメリットを最大化し、情報共有を促進するための指針となります。

指針は、定期的に更新される生きた文書であり、EMAは2024年9月13日にウェビナーでネットワークに紹介します。これは、AI作業計画に関連して開催されるさまざまなイベントや情報共有の機会の1つです。”

EMA_HMA_AI-Letter