Model Card
Overview
EvaGPT-446M-MaTeLiX-AI-Pretrained ist ein vortrainiertes Large Language Model (LLM), das exklusiv für das MaTeLiX Trainingsdashboard bereitgestellt wird. Das Modell unterstützt Deutsch und Englisch und ist als reine Pretrained-Version gedacht.
WICHTIG: Dies ist ausschließlich ein Pretrained-Model! Es wurde noch nicht finegetuned. Für die Verwendung in produktiven Anwendungen oder für spezifische Aufgaben ist ein zusätzliches Finetuning unbedingt erforderlich.
- Typ: Nur Pretrained LLM (ohne Finetuning)
- Kompatibilität: Transformers Library
- Ziel: Trainings- und Testzwecke im MaTeLiX-Ökosystem
Hinweis zur Architektur
Obwohl als Architekturname MistralForCausalLM
verwendet wird, basiert dieses Modell nicht auf der Mistral-Architektur.
Die Modellarchitektur ist eine eigene Entwicklung. Der Architekturname dient ausschließlich der Kompatibilität mit der Hugging Face transformers
-Bibliothek.
Nutzung im MaTeLiX Dashboard
Das Modell ist ausschließlich für die Nutzung über das MaTeLiX Trainingsdashboard vorgesehen. Eine direkte Verwendung außerhalb dieser Plattform ist nicht vorgesehen und wird nicht unterstützt.
Anwendung: Im MaTeLiX Trainingsdashboard dient dieses Modell als Grundlage für Experimente, Prompt-Tests und als Ausgangspunkt für weiteres Finetuning. Alle Parameter werden im Dashboard verwaltet.
Technische Details
- Architektur: Eigenentwicklung, Hugging Face Kompatibilität über
MistralForCausalLM
- Sprachen: Deutsch, Englisch
- Trainingsdaten: Allgemeine Pretraining-Corpora (siehe MaTeLiX-Dokumentation)
- Status: Nur Pretrained, kein Finetuning
- Hinweis: Kein echtes Mistral, keine produktive Anwendung
Lizenz & Haftungsausschluss
Dieses Modell dient ausschließlich zu Demonstrations-, Trainings- und Evaluationszwecken im MaTeLiX Trainingsdashboard. MaTeLiX übernimmt keine Haftung für Fehler, Bias oder unerwünschte Modellantworten. Für produktive Nutzung oder externe Anwendungen ist vorheriges Finetuning erforderlich.
Kontakt
Fragen zur Nutzung oder zum Finetuning bitte an das MaTeLiX Support-Team.
- Downloads last month
- 15