merge

This is a merge of pre-trained language models created using mergekit.

Merge Details

Merge Method

This model was merged using the TIES merge method using Qwen/Qwen2.5-7B-Instruct-1M as a base.

Models Merged

The following models were included in the merge:

Configuration

The following YAML configuration was used to produce this model:

models:
  - model: ZeroXClem/Qwen2.5-7B-HomerCreative-Mix
    parameters:
      density: 0.53 # Puoi mantenere la stessa densità dell'esempio o modificarla se necessario
      weight: 0.6  # Peso maggiore per dare priorità a questo modello (maggiore creatività)
  - model: Qwen/Qwen2.5-7B-Instruct-1M
    parameters:
      density: 0.53 # Mantieni la densità consistente
      weight: 0.4  # Peso minore per l'altro modello (la somma dei pesi 0.6 + 0.4 = 1.0 è comune ma non strettamente obbligatoria in TIES prima della normalizzazione)
merge_method: ties # Metodo di merge richiesto
base_model: Qwen/Qwen2.5-7B-Instruct-1M # Modello base specificato
parameters:
  normalize: false # Mantieni i parametri globali dell'esempio se non diversamente specificato
  int8_mask: true
dtype: float16     # Tipo di dato per il modello merged
Downloads last month
9
Safetensors
Model size
7.62B params
Tensor type
FP16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ClaudioItaly/CreativeMilion-7B