merge
This is a merge of pre-trained language models created using mergekit.
Merge Details
Merge Method
This model was merged using the TIES merge method using Qwen/Qwen2.5-7B-Instruct-1M as a base.
Models Merged
The following models were included in the merge:
Configuration
The following YAML configuration was used to produce this model:
models:
- model: ZeroXClem/Qwen2.5-7B-HomerCreative-Mix
parameters:
density: 0.53 # Puoi mantenere la stessa densità dell'esempio o modificarla se necessario
weight: 0.6 # Peso maggiore per dare priorità a questo modello (maggiore creatività)
- model: Qwen/Qwen2.5-7B-Instruct-1M
parameters:
density: 0.53 # Mantieni la densità consistente
weight: 0.4 # Peso minore per l'altro modello (la somma dei pesi 0.6 + 0.4 = 1.0 è comune ma non strettamente obbligatoria in TIES prima della normalizzazione)
merge_method: ties # Metodo di merge richiesto
base_model: Qwen/Qwen2.5-7B-Instruct-1M # Modello base specificato
parameters:
normalize: false # Mantieni i parametri globali dell'esempio se non diversamente specificato
int8_mask: true
dtype: float16 # Tipo di dato per il modello merged
- Downloads last month
- 9
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for ClaudioItaly/CreativeMilion-7B
Merge model
this model