Model Card

Overview

EvaGPT-446M-MaTeLiX-AI-Pretrained ist ein vortrainiertes Large Language Model (LLM), das exklusiv für das MaTeLiX Trainingsdashboard bereitgestellt wird. Das Modell unterstützt Deutsch und Englisch und ist als reine Pretrained-Version gedacht.

WICHTIG: Dies ist ausschließlich ein Pretrained-Model! Es wurde noch nicht finegetuned. Für die Verwendung in produktiven Anwendungen oder für spezifische Aufgaben ist ein zusätzliches Finetuning unbedingt erforderlich.

  • Typ: Nur Pretrained LLM (ohne Finetuning)
  • Kompatibilität: Transformers Library
  • Ziel: Trainings- und Testzwecke im MaTeLiX-Ökosystem

Hinweis zur Architektur

Obwohl als Architekturname MistralForCausalLM verwendet wird, basiert dieses Modell nicht auf der Mistral-Architektur. Die Modellarchitektur ist eine eigene Entwicklung. Der Architekturname dient ausschließlich der Kompatibilität mit der Hugging Face transformers-Bibliothek.

Nutzung im MaTeLiX Dashboard

Das Modell ist ausschließlich für die Nutzung über das MaTeLiX Trainingsdashboard vorgesehen. Eine direkte Verwendung außerhalb dieser Plattform ist nicht vorgesehen und wird nicht unterstützt.

Anwendung: Im MaTeLiX Trainingsdashboard dient dieses Modell als Grundlage für Experimente, Prompt-Tests und als Ausgangspunkt für weiteres Finetuning. Alle Parameter werden im Dashboard verwaltet.

Technische Details

  • Architektur: Eigenentwicklung, Hugging Face Kompatibilität über MistralForCausalLM
  • Sprachen: Deutsch, Englisch
  • Trainingsdaten: Allgemeine Pretraining-Corpora (siehe MaTeLiX-Dokumentation)
  • Status: Nur Pretrained, kein Finetuning
  • Hinweis: Kein echtes Mistral, keine produktive Anwendung

Lizenz & Haftungsausschluss

Dieses Modell dient ausschließlich zu Demonstrations-, Trainings- und Evaluationszwecken im MaTeLiX Trainingsdashboard. MaTeLiX übernimmt keine Haftung für Fehler, Bias oder unerwünschte Modellantworten. Für produktive Nutzung oder externe Anwendungen ist vorheriges Finetuning erforderlich.


Kontakt

Fragen zur Nutzung oder zum Finetuning bitte an das MaTeLiX Support-Team.

Downloads last month
15
Safetensors
Model size
446M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support