Interactive Refinement Qwen3-14B

このモデルは、Qwen3-14BをベースとしたInteractive Refinement(対話的改善)システムです。

モデル概要

  • ベースモデル: Qwen/Qwen3-14B
  • 改善ラウンド数: 3
  • 1ラウンド最大トークン: 600
  • 量子化: なし

Interactive Refinementとは

Interactive Refinementは、同一の質問に対して複数ラウンドの推論を行い、各ラウンドで前回の回答を評価・改善する手法です。

主な特徴

  1. 多段階推論: 3回のラウンドで段階的に回答を改善
  2. 思考過程の可視化: <think>タグで思考過程を明示
  3. 自己評価と改善: 各ラウンドで前回の回答を評価し改善
  4. 品質向上: ベースライン単発生成より高品質な回答を生成

使用方法

from transformers import AutoTokenizer, AutoModelForCausalLM

# モデルとトークナイザーの読み込み
tokenizer = AutoTokenizer.from_pretrained("hiroshij/interactive-refinement-qwen3-14B")
model = AutoModelForCausalLM.from_pretrained("hiroshij/interactive-refinement-qwen3-14B")

# Interactive Refinement実行(実装は別途必要)
# question = "あなたの質問"
# response = interactive_refinement_generate(model, tokenizer, question)

ライセンス

Apache 2.0

作成者

Interactive Refinement implementation based on Qwen3-14B


このモデルは研究・教育目的で作成されました。

Downloads last month
10
Safetensors
Model size
14.8B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for hiroshij/interactive-refinement-qwen3-14B

Finetuned
Qwen/Qwen3-14B
Finetuned
(84)
this model