--- license: other datasets: - nvidia/OpenCodeReasoning - nvidia/Llama-Nemotron-Post-Training-Dataset - zwhe99/DeepMath-103K - nvidia/OpenMathReasoning - Anthropic/values-in-the-wild - future-technologies/Universal-Transformers-Dataset - hynky/czech_news_dataset_v2 - lang-uk/recruitment-dataset-job-descriptions-english - pauli31/czech-subjectivity-dataset - rayzox57/Youtube_Czechid - CIIRC-NLP/czech_news_simple-cs - patrixtano/pdt_anaphora_czech - adityarra07/slovakia_data - DBQ/Mr.Porter.Product.prices.Slovakia language: - cs - sk base_model: - openai-community/gpt2 - meta-llama/Llama-4-Scout-17B-16E-Instruct - deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B - deepseek-ai/DeepSeek-V3-0324 - nari-labs/Dia-1.6B - TopherTek/nari-labs-Dia-1.6B - microsoft/bitnet-b1.58-2B-4T - HiDream-ai/HiDream-I1-Full new_version: nari-labs/Dia-1.6B pipeline_tag: text-generation tags: - art - code --- # Axionis 1.0 (start) Axionis je výzkumný jazykový model zaměřený na vícejazyčné porozumění, logické úlohy, morální hodnoty a kontextové chápání textu. Vychází z kombinace technických, jazykových a hodnotově laděných datasetů. # tags: - czech - slovak - reasoning - values - multilingual - research - text-generation - transformers ## 🧠 Datasety Model byl předtrénován a doladěn na datech: - NVIDIA: OpenCodeReasoning, OpenMathReasoning, Llama-Nemotron - Anthropic: values-in-the-wild - Česká data: hynky/czech_news_dataset_v2, CIIRC-NLP/czech_news_simple-cs, patrixtano/pdt_anaphora_czech, pauli31/czech-subjectivity-dataset, rayzox57/Youtube_Czechid - Slovenská data: adityarra07/slovakia_data, DBQ/Mr.Porter.Product.prices.Slovakia - Multijazykové: future-technologies/Universal-Transformers-Dataset ## ⚠ Licence Model je určen pouze pro výzkumné účely. Některá data mohou být pod omezenými licencemi. Prosím, zkontrolujte si licence jednotlivých datasetů před komerčním použitím. ## 🛠 Použití ```python from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("Homebax/axionis-1.0-start") model = AutoModelForCausalLM.from_pretrained("Homebax/axionis-1.0-start") inputs = tokenizer("Ahoj, co umíš?", return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=100) print(tokenizer.decode(outputs[0]))