cv_animals

Model description

Dieses Modell ist ein feingetuntes Vision Transformer (ViT) Modell, das auf dem vortrainierten google/vit-base-patch16-224 basiert. Es wurde speziell für die Klassifikation von Bildern in 90 verschiedene Tierklassen trainiert. Die zugrunde liegenden Daten stammen aus dem öffentlich verfügbaren Animal Image Dataset, das Bilder aus Google aggregiert.

Das Modell eignet sich für Anwendungen, bei denen Tiere auf Fotos automatisch erkannt und klassifiziert werden sollen. Typische Einsatzgebiete sind beispielsweise:

  • automatisierte Artenbestimmung
  • bildgestützte Tierdatenerfassung in Forschung und Lehre
  • edukative oder interaktive Anwendungen (z. B. in Museen oder Apps).

Erzielte Resultate:

  • Loss: 0.0876
  • Accuracy: 0.9833

Intended uses & limitations

Vorgesehene Verwendungen

Dieses Modell wurde für die Bildklassifikation von Tieren in 90 Kategorien entwickelt. Es eignet sich insbesondere für:

  • Bildbasierte Tiererkennung in Anwendungen wie Lernplattformen, mobilen Apps, oder interaktiven Tools
  • Unterstützung bei biologischer Arterkennung (z. B. für Bildungsprojekte oder Citizen Science)
  • Vergleich von Transfer-Learning-Modellen mit Zero-Shot-Modellen (z. B. CLIP)

Einschränkungen

  • Die Vorhersagen sind stark abhängig von Bildqualität und Perspektive
  • Das Modell wurde nur mit Bildern aus dem Kaggle-Datensatz trainiert – es ist nicht garantiert, dass es bei anderen Tierarten oder in freier Wildbahn korrekt klassifiziert
  • Mehrdeutige oder unklare Bilder (z. B. mit mehreren Tieren, Zeichnungen, Verdeckungen) können zu falschen Vorhersagen führen

Training and evaluation data

Datensatz: Animal Image Dataset - 90 different animals

Anzahl Bilder: 5.400

Klassen: 90 Tierarten (z. B. Hund, Katze, Elefant, Biene, Löwe etc.)

Aufteilung:

  • 80 % Training (4.320 Bilder)
  • 10 % Validierung (540 Bilder)
  • 10 % Test (540 Bilder)

Augmentierungen

Zur Verbesserung der Generalisierbarkeit wurden folgende Transformationen auf die Trainingsbilder angewendet:

  • RandomHorizontalFlip() – zufälliges horizontales Spiegeln
  • RandomRotation(25) – zufällige Drehung um ±25°
  • ColorJitter() – zufällige Helligkeits-, Kontrast-, Sättigungs- und Farbtonänderungen

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.0003
  • train_batch_size: 16
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • num_epochs: 5

Training results

Training Loss Epoch Step Validation Loss Accuracy
1.1951 1.0 270 0.3316 0.9648
0.2763 2.0 540 0.1710 0.9667
0.1772 3.0 810 0.1482 0.9648
0.1533 4.0 1080 0.1391 0.9704
0.1462 5.0 1350 0.1350 0.9685

Framework versions

  • Transformers 4.50.0
  • Pytorch 2.6.0+cu124
  • Datasets 3.4.1
  • Tokenizers 0.21.1
Downloads last month
6
Safetensors
Model size
85.9M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Dalmatiner/cv_animals

Finetuned
(876)
this model

Space using Dalmatiner/cv_animals 1

Evaluation results