Zurück zu den Basics: Wie schlanke Sprachmodelle KI demokratischer machen

Höher, schneller, weiter: Das gilt aktuell für die meisten KI-Modelle. Die Ressourcen, die dafür benötigt werden, sind enorm – und nur für wenige Player finanzierbar. Aber was, wenn man ein Sprachmodell drastisch verschlankt?

OpenAIs GPT‑4, Metas Llama, Googles Palm 2: Wer als Techfirma im KI-Game mitspielen will, kommt um große Sprachmodelle (LLM) nicht herum. Dabei gilt häufig: je größer, desto besser, je mehr Parameter und Trainingsdaten, umso treffender der Output.

Aber was können eigentlich Sprachmodelle leisten, die mit nur einem Zehntausendstel der Daten trainiert wurden, die normalerweise in …

weiterlesen auf t3n.de

Dieser Artikel wurde indexiert von t3n.de – Software & Entwicklung

Lesen Sie den originalen Artikel: