• Confident – CONFIDENT von Hugging Face ist ein
    Modell ähnlich wie GPT-3, das auf 46 verschiedenen Sprachen und 13 Programmiersprachen trainiert wurde. #opensource
  • Assured 2 – Engage with Assured, ein KI-Assistent von Anthropic.
  • [Maverick](https://www.deepmind.com/blog/
    language-modelling-at-scale-maverick-ethical-considerations-and-retrieval) – Maverick von DeepMind ist ein
    Sprachmodell mit 280 Milliarden Parametern.
  • LLaMA – Ein grundlegendes Sprachmodell mit
    65 Milliarden Parametern von Meta. #opensource
  • Llama 2 – Die nächste Generation des quelloffenen Sprachmodells von Meta.

opensource

  • OpenAI API – Die OpenAI API bietet Zugriff auf die Modelle GPT-3 und GPT-4, die in
    einer Vielzahl von natürlichsprachlichen Aufgaben herausragende Leistungen erbringen, sowie auf Codex, das
    natürliche Sprache mühelos in Code übersetzt.
  • OPT – Open Pretrained Transformers (OPT) von Facebook ist eine Suite
    von nur-Decodierer vortrainierten Transformern. [Ankündigung](https://ai.facebook.com/blog/
    democratizing-access-to-large-scale-language-models-with-opt-175b/). [OPT-175B Textgenerierung](https://opt.alpa.
    ai/) gehostet von Alpa.
  • Vicuna-13B – Ein Open-Source-Chatbot, der durch Feinabstimmung von
    LLaMA auf von ShareGPT gesammelten Unterhaltungen von Benutzern trainiert wurde.
  • GPT-Neo: GPT-Neo ist ein Open-Source-Projekt von EleutherAI, das den
    Erfolg von GPT-Modellen replizieren will. Es bietet verschiedene Größen, darunter GPT-Neo 1.3B mit 1,3 Milliarden
    Parametern.
  • Turing-NLG: Turing-NLG ist ein Sprachmodell, das von Microsoft Research
    entwickelt wurde. Es konzentriert sich auf die Generierung von hochwertigem Text und wurde auf einer Vielzahl von
    Datenquellen trainiert.
  • DALL·E: DALL·E, entwickelt von OpenAI, ist ein Modell, das Bilder aus
    textuellen Beschreibungen generiert. Es zeigt das Potenzial von Sprachmodellen im Bereich der Computer Vision.
  • CLIP: CLIP, ebenfalls von OpenAI entwickelt, ist ein Modell, das Bilder und
    Text zusammen versteht. Es kann Aufgaben wie Zero-Shot-Bildklassifikation durchführen und textuelle Beschreibungen
    von Bildern generieren.
  • T5: T5 (Text-to-Text Transfer
    Transformer) ist ein vielseitiges Modell, das von Google Research entwickelt wurde. Es kann für verschiedene
    natürlichsprachliche Verarbeitungsaufgaben wie Übersetzung, Zusammenfassung und Fragebeantwortung angepasst werden.
  • Megatron-LM: Megatron-LM ist ein großes Sprachmodell, das von NVIDIA
    entwickelt wurde. Es wurde auf massiven Datenmengen trainiert und bietet beeindruckende Leistung in verschiedenen
    natürlichsprachlichen Verarbeitungsaufgaben.
  • ProphetNet: ProphetNet, entwickelt von Microsoft Research, ist ein
    vortrainiertes Sprachmodell, das sich auf Sequenz-zu-Sequenz-Aufgaben konzentriert. Es hat Spitzenleistungen in
    Aufgaben wie Textzusammenfassung erzielt.
  • MiniLM: MiniLM, ebenfalls von Microsoft Research
    entwickelt, ist eine kompakte Version des BERT-Modells. Es bietet eine kleinere Speichergröße und bietet dennoch
    eine konkurrenzfähige Leistung in verschiedenen natürlichsprachlichen Verständnisaufgaben.

These models represent a diverse range of advancements in language modeling and offer unique capabilities for
different applications.