Weblab-MedLLM-Qwen-2.5-109B-Instruct
本プログラムは、内閣府が設置した「戦略的イノベーション創造プログラム(SIP)が公募したSIP第3期補正予算「統合型ヘルスケアシステムの構築における生成AIの活用」において採択された研究開発課題「日本語版医療LLMの開発ならびに臨床現場における社会実装検証」において、開発されたものです。
モデルの特徴
- モデル: Qwen2.5-72B-Instructに対して、モデルサイズを拡張し、SIPプロジェクトで収集したコーパスで追加学習を実施したモデル
- 言語: 日本語
- 開発者: SIP 第3期テーマ1研究開発チーム
- 留意事項: 本モデルの利用には、利用規約への同意と東京大学大学院工学系研究科技術経営戦略学専攻/人工物工学研究センター 松尾・岩澤研究室(提供者)との契約が必要になります。利用規約と提供者との契約内容に基づいてご利用ください。
推奨動作環境
Python
- python>=3.9.21
ライブラリ
- accelerate>=1.10.0
- torch>=2.8.0
- transformers>=4.55.0
使用方法
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "weblab-LLM-M/Weblab-MedLLM-Qwen-2.5-109B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "介護保険による機能訓練で正しいのはどれか。 a: 介護福祉士が実施する。 b: 利用者は減少している。 c: 医師の指示が必要である。 d: 家事動作訓練が含まれる。 e: 特定機能病院で実施される。 a\
,b,c,d,eの中から1つ選びなさい。考察した後、最後に[ans][/ans]タグで囲った回答を出力しなさい。ansタグ内には選択肢の文字のみを出力しなさい。"
messages = [
{"role": "system", "content": "あなたは優秀なアシスタントです。"},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512*2,
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
注意事項
- 本プログラムは「研究利用限定」でのご提供となります。利用規約と提供者との契約内容に基づいてご利用ください。
- 本プログラムは研究開発段階のプロトタイプであり、実臨床における安全性・有効性の検証は十分に行われていません。
- 本プログラムの正確性・完全性・最新性・品質について一切の保証を行わず、利用者の損害について責任を負いません。
- 医療行為(診断、治療方針の決定、健康への助言など)への直接適用は推奨しません。あくまで医療専門家の判断を補助する情報提供ツールとしての研究利用に限ります。
メンテナンス情報
- リリース日: 2025 年 XX 月 XX 日
- 最終更新日: 2025 年 XX 月 XX 日
- バージョン: 1.0.0
お問い合わせ
- Downloads last month
- 5