Interactive Refinement Qwen3-14B
このモデルは、Qwen3-14BをベースとしたInteractive Refinement(対話的改善)システムです。
モデル概要
- ベースモデル: Qwen/Qwen3-14B
- 改善ラウンド数: 3
- 1ラウンド最大トークン: 600
- 量子化: なし
Interactive Refinementとは
Interactive Refinementは、同一の質問に対して複数ラウンドの推論を行い、各ラウンドで前回の回答を評価・改善する手法です。
主な特徴
- 多段階推論: 3回のラウンドで段階的に回答を改善
- 思考過程の可視化:
<think>
タグで思考過程を明示 - 自己評価と改善: 各ラウンドで前回の回答を評価し改善
- 品質向上: ベースライン単発生成より高品質な回答を生成
使用方法
from transformers import AutoTokenizer, AutoModelForCausalLM
# モデルとトークナイザーの読み込み
tokenizer = AutoTokenizer.from_pretrained("hiroshij/interactive-refinement-qwen3-14B")
model = AutoModelForCausalLM.from_pretrained("hiroshij/interactive-refinement-qwen3-14B")
# Interactive Refinement実行(実装は別途必要)
# question = "あなたの質問"
# response = interactive_refinement_generate(model, tokenizer, question)
ライセンス
Apache 2.0
作成者
Interactive Refinement implementation based on Qwen3-14B
このモデルは研究・教育目的で作成されました。
- Downloads last month
- 10
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support