File size: 4,864 Bytes
4899d26
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b1fcae2
 
0c524bc
 
 
 
4899d26
 
 
b1fcae2
 
4899d26
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
261ec82
4899d26
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
---
license: mit
language:
- de
base_model:
- Atomic-Ai/AtomicGPT-3
library_name: transformers
metrics:
- f1
- perplexity
- exact_match
tags:
- conversational
- ai
- artificialintelligence
- ki
- machinelearning
- deeplearning
- neuralnetworks
- nlp
- computervision
- generativeai
- gpt2
- r1
- o3
- GPT
- Transformers
pipeline_tag: text-generation
---

# AtomicGPT T1 18042025

## Beschreibung

## AtomicGPT T1 18042025

**AtomicGPT T1 18042025** ist die neueste Version des ursprünglichen AtomicGPT T1.  
Dieses Update bringt spürbare Verbesserungen bei der Antwortqualität und im Denkprozess – das Modell reflektiert länger und liefert dadurch durchdachtere Antworten.

### Was ist neu?

- **Verdoppelter Token-Speicher**:  
  Statt 1.024 Tokens kann das neue Modell jetzt **2.048 Tokens** verarbeiten – das bedeutet: mehr Kontext, mehr Informationen, bessere Antworten.

- **Verbessertes Training**:  
  Das Training dauerte etwa eine Stunde mit insgesamt **10 Epochen**.  
  Der Datensatz wurde außerdem von **800 KB auf 1 MB** erweitert – mehr Wissen für die KI!

### Fun Fact

Das **"T"** im Namen steht für **Think** – weil dieses Modell nicht nur antwortet, sondern mitdenkt.


Für das Training wurde unser vorheriges Modell **AtomicGPT 3.0** verwendet.  
Deswegen kann das Modell mit ausreichend Wissen bereitgestellt werden!

**AtomicGPT T1** ist ein kleines deutsches KI-Modell, das in der Lage ist, qualitativ hochwertige Antworten in **deutscher Sprache** zu liefern.  
Das Modell ist noch nicht perfekt, aber in der Vergangenheit wurde es kontinuierlich mit verbessertem Wissen ausgestattet.



## Vergleiche

| Aufgaben     | L-GPT_1.5 | L-GPT_1.5 mini | AtomicGPT 1.0 | AtomicGPT 2.0 | AtomicGPT 3.0 | AtomicGPT T1 | AtomicGPT T1 18042025 |
|--------------|-----------|----------------|----------------|----------------|----------------|----------------|--------------------------|
| Q&A          | 73.33%    | 64.17%         | 58.33%         | 59.17%         | 90%            | 100%          | **100%**                 |
| **Hard Q&A** | –         | –              | –              | –              | 62.50%         | 35.00%         | **93,33%**               |

---



## Verwendung

Um das Modell zu verwenden, stelle sicher, dass der Prompt im folgenden Format gesendet wird:

```text
<user>prompt<End><AI Assistent>
```

Wenn `<End>` erkannt wird, sollte die Generierung gestoppt werden.

```python
from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
import torch

# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicGPT-T1-18042025"

tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
model = AutoModelForCausalLM.from_pretrained(MODEL_PATH)

print("Spezielle Tokens:", tokenizer.additional_special_tokens)
print("Pad Token:", tokenizer.pad_token)
print("EOS Token:", tokenizer.eos_token)

device = 0 if torch.cuda.is_available() else -1
print(f"Verwende {'GPU' if device == 0 else 'CPU'} für Inferenz")

chatbot = pipeline(
    "text-generation",
    model=model,
    tokenizer=tokenizer,
    device=device
)

def generate_response(prompt):
    output = chatbot(
        prompt,
        max_new_tokens=2048,
        eos_token_id=50268,
        pad_token_id=tokenizer.pad_token_id,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        top_k=50,
        repetition_penalty=1.1
    )
    return output[0]['generated_text']

def format_chat(user_input):
    return f"<user>{user_input}<End><AI Assistent>"

def extract_assistant_response(full_text):
    try:
        parts = full_text.split("<AI Assistent>")
        if len(parts) > 1:
            response_part = parts[1]
            if "<End>" in response_part:
                return response_part.split("<End>")[0].strip()
            else:
                return response_part.strip()
        return "Fehler: Antwortformat ungültig"
    except Exception as e:
        return f"Fehler bei der Extraktion: {str(e)}"

def main():
    print("\n=== AtomicGPT Chat ===")
    print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
    print("----------------------------------")
    
    while True:
        user_input = input("\nDu: ")
        if user_input.lower() in ['exit', 'quit', 'ende']:
            print("Chat beendet. Auf Wiedersehen!")
            break
            
        try:
            prompt = format_chat(user_input)
            full_response = generate_response(prompt)
            assistant_response = extract_assistant_response(full_response)
            print(f"\nAI Assistent: {assistant_response}")
        except Exception as e:
            print(f"\nFehler: {str(e)}")
            print("Versuche es mit einer anderen Eingabe.")

if __name__ == "__main__":
    main()
```

---

## Unterstütze uns
Tritt unserer Community bei:  
👉 **[Discord Server](https://discord.gg/atKjP6Jb)**

---