Microsoft Azure AI: Neue Modelle

Mit Wirkung zum 21. Mai 2024 kommen neue KI-Modelle zu Microsoft Azure AI. GPT-4o und GPT-4 Turbo sind jetzt in Azure AI Studio und als Anwendungsprogrammierschnittstelle (API) verfügbar. Phi-3-vision, ein neues kostengünstiges Modell, ist ebenfalls in Azure verfügbar.

 

GPT-4o

GPT-4o ist das neueste und leistungsfähigste große Sprachmodell (LLM) von OpenAI .

Hier sind einige Einzelheiten:

Multimodale Integration:

  • GPT-4o verarbeitet Text und Bilder gleichzeitig.
  • Dieser multimodale Ansatz setzt einen neuen Standard für KI, indem er die Genauigkeit und Reaktionsfähigkeit bei der Interaktion zwischen Mensch und Computer verbessert.
  • Funktionen wie Audio- und Videoerkennung könnten in Zukunft hinzukommen.

Zugriff auf GPT-4o:

  • Um GPT-4o zu nutzen, erstellen Sie eine Ressource oder verwenden Sie eine bestehende Ressource in einer unterstützten Standard- oder globalen Standardregion, in der das Modell verfügbar ist.
  • Sobald Ihre Ressource eingerichtet ist, stellen Sie das GPT-4o-Modell unter dem Namen “gpt-4o” und der Version “2024-05-13” (oder der neuesten verfügbaren Version) bereit.

 

GPT-4 Turbo

GPT-4 Turbo ist ein LLM, der sowohl Text- als auch Bildeingaben akzeptiert und textbasierte Antworten erzeugt.

Die Stärken des GPT-4 Turbo:

  • Der GPT-4 Turbo übertrifft seine Vorgänger, einschließlich des GPT-3.5 Turbo und der älteren GPT-4 Modelle.
  • Es zeichnet sich durch Chat-Interaktionen und traditionelle Erledigungsaufgaben aus.
  • Der GPT-4 Turbo ist dem GPT-4o unterlegen und ist das ältere Modell.

Azure-spezifische Unterschiede zu OpenAI:

  • Während OpenAIs Version des neuesten 0409-Turbomodells den JSON-Modus und Funktionsaufrufe für alle Inferenzanfragen unterstützt, unterstützt die Version von Azure OpenAI diese Funktionen derzeit nicht mit Bildeingaben.
  • Textbasierte Eingabeanforderungen unterstützen jedoch den JSON-Modus und Funktionsaufrufe.

 

Vergleich zwischen GPT-4 Turbo und GPT-4o

  • Bei englischen Texten und Codierungsaufgaben entspricht GPT-4o den Fähigkeiten von GPT-4 Turbo.
  • Aber wo GPT-4o wirklich glänzt, ist seine überlegene Leistung bei nicht-englischen Sprachen und Bildverarbeitungsaufgaben . Bildverarbeitungsaufgaben beziehen sich auf eine Reihe von Erkennungsaktivitäten, bei denen es um die Verarbeitung und das Verständnis visueller Daten wie Bilder oder Videos geht. Diese Aufgaben ermöglichen es Maschinen, visuelle Informationen zu “sehen” und zu interpretieren, ähnlich wie das menschliche Sehen.

Die Tabelle unten zeigt weitere Unterschiede:

Merkmal GPT-4 Turbo GPT-4o
Eingabe-Typen Text und Bild Text, Bild (Audio- und Videoerkennung können in Zukunft hinzukommen)
Optimiert für Chat-Interaktionen und traditionelle Erledigungsaufgaben Multimodale Aufgaben einschließlich nicht-englischer Sprachen und Sehen
Leistung Hohe Genauigkeit beim Lösen von Problemen Hervorragende Leistung bei nicht-englischen Sprachen und Sehaufgaben
Latenzzeit Höhere Latenz (nicht bevorzugt – Zeit, die das Modell benötigt, um nach dem Empfang einer Eingabe zu reagieren) Geringere Latenz (bevorzugt)
Durchsatz Standardgeschwindigkeit der Texterstellung: 20 Token pro Sekunde Schnellere Texterstellung: 109 Token pro Sekunde
Kosten 2.0x teurer Kostengünstiger
Modell-Versionen gpt-4 (turbo-2024-04-09) gpt-4o (2024-05-13)

GPT-4o ist in jeder Hinsicht überlegen. Es ist nur dann sinnvoll, GPT-4 Turbo zu verwenden, wenn Ihre Systeme bereits für dieses Modell optimiert sind.

 

Phi-3-Vision

Phi-3-vision ist das erste multimodale Modell (Text- und Bilderkennung) in der Phi-3 Familie.

Die Phi-3-Familie ist eine von Microsoft entwickelte Sammlung von kleinen KI-Sprachmodellen (SLMs). Sie sind leistungsstark und sehr kostengünstig.

Fähigkeiten von Phi-3-vision:

  • Es wurde entwickelt, um Daten aus der realen Welt zu analysieren und sowohl Text als auch Bilder nahtlos zu verarbeiten.
  • Im Vergleich zu anderen Phi-3-Modellen können Benutzer visuelle Daten, wie z.B. Diagramme, abfragen oder offene Fragen zu bestimmten Bildern stellen.
  • Sie wurde im Einklang mit den Grundsätzen der verantwortungsvollen KI von Microsoft entwickelt.

Hier ist ein Vergleich der Phi-3-Modelle:

Modell-Typen Parameter Kontextlängen Alleinstellungsmerkmal
Phi-3-Vision 4,2 Milliarden 128000 Einziges Phi-3-Modell, das Bilder versteht
Phi-3-mini 3,8 Milliarden 128000 / 4000 Kompakt und effizient
Phi-3-klein 7,0 Milliarden 128000 / 8000 Vielseitig für verschiedene KI-Aufgaben
Phi-3-medium 14,0 Milliarden 128000 / 4000 Erweiterte Verarbeitung für komplexe Aufgaben

Sie können Phi-3-vision hier aufrufen.

 

Sind Sie bereit, die Leistung dieser neuen Modelle in Azure zu entfesseln?

Entdecken Sie die Spitzenmodelle GPT-4o, GPT-4 Turbo und Phi-3-vision, die jetzt in Azure AI verfügbar sind. Ob Sie nun in multimodale Aufgaben eintauchen, die Zusammenarbeit verbessern oder die Kosteneffizienz optimieren wollen, diese Modelle sind Ihr Tor zur Zukunft der KI.

Starten Sie noch heute und kontaktieren Sie SCHNEIDER IT MANAGEMENT für Ihre Microsoft Azure-Anforderungen!

 

Weitere Informationen

Die Ankündigung finden Sie unter: https://blogs.microsoft.com/blog/2024/05/21/whats-next-microsoft-build-continues-the-evolution-and-expansion-of-ai-tools-for-developers/#:~:%20frontier%%20and,in%%20AI%.

Für weitere Informationen über Phi-3-vision in Azure besuchen Sie bitte: https://azure.microsoft.com/en-us/blog/new-models-added-to-the-phi-3-family-available-on-microsoft-azure/

Für weitere Informationen zu GPT-4o in Azure AI besuchen Sie bitte: https://azure.microsoft.com/en-us/blog/introducing-gpt-4o-openais-new-flagship-multimodal-model-now-in-preview-on-azure/.

Einen Vergleich der OpenAI-Modelle in Azure finden Sie unter: https://learn.microsoft.com/en-us/azure/ai-services/openai/concepts/models.

Wenn Sie wissen möchten, wie wir Ihnen bei der Lizenzierung von Microsoft helfen können, besuchen Sie bitte: https://www.schneider.im/de/software/microsoft/.

Setzen Sie sich mit uns in Verbindung, um eine Expertenservices zu Ihren speziellen Microsoft Online Services und Software-Anforderungen zu erhalten und um noch heute ein Angebot anzufordern.

Artikel teilen