Gcore erweitert KI-Inferenz um flexible Einsatzmöglichkeiten, darunter Cloud, On-Premise und Hybrid
21 January 2025 - 9:30AM
Business Wire
Gcore, globaler Anbieter von Edge-KI-, Cloud-, Netzwerk- und
Sicherheitsl�sungen, hat heute ein großes Update für Everywhere
Inference, früher bekannt als Inference at the Edge, angekündigt.
Dieses Update erh�ht die Flexibilität bei der Bereitstellung von
KI-Inferenzen und senkt die Latenzzeit weiter. Everywhere Inference
unterstützt jetzt mehrere verschiedene Bereitstellungsoptionen:
On-Premise, Gcores Cloud, Public Cloud oder eine hybride Mischung
dieser Umgebungen.
Diese Pressemitteilung enthält multimediale
Inhalte. Die vollständige Mitteilung hier ansehen:
https://www.businesswire.com/news/home/20250116494675/de/
Everywhere Inference nutzt Gcores
globales Netzwerk mit über 180 Präsenzpunkten und erm�glicht so
Echtzeitverarbeitung und sofortige Bereitstellung. (Graphic:
Business Wire)
Neue Anforderungen an KI
Mit dem Update geht Gcore auf sich ändernde Kundenanforderungen
ein. Angesichts des rasanten Wachstums von KI-Inferenz-Workloads
m�chte Gcore Unternehmen flexible Bereitstellungsoptionen bieten,
die auf ihre individuellen Anforderungen zugeschnitten sind.
Everywhere Inference nutzt Gcores globales Netzwerk mit über 180
Präsenzpunkten und erm�glicht so Echtzeitverarbeitung und sofortige
Bereitstellung auf der ganzen Welt. Weil die KI-Inferenz-Workloads
näher am Endnutzer verarbeitet werden, k�nnen Unternehmen sie in
verschiedenen Umgebungen einsetzen und gleichzeitig extrem niedrige
Latenzzeiten gewährleisten. Die L�sung verbessert außerdem das
Kostenmanagement und vereinfacht die Einhaltung gesetzlicher
Vorschriften in verschiedenen Regionen. Damit bietet sie einen
umfassenden und anpassungsfähigen Ansatz für moderne
KI-Herausforderungen.
Seva Vayner, Product Director of Edge Cloud and Edge AI bei
Gcore, sagt: „Das Update von Everywhere Inference ist ein wichtiger
Meilenstein. Wir m�chten damit die KI-Nutzererfahrung verbessern
und sich neu entwickelnde Kundenbedürfnisse erfüllen. "Die
Flexibilität und Skalierbarkeit von Everywhere Inference macht sie
zu einer idealen L�sung für Unternehmen jeder Gr�ße, von Startups
bis hin zu Großunternehmen.“
Effiziente Workload-Verteilung mit Smart Routing
Das neue Update führt außerdem Smart Routing ein und erh�ht
damit die Flexibilität bei der Bereitstellung. Die Technologie
leitet Workloads automatisch an die nächstgelegene verfügbare
Compute-Ressource weiter. Darüber hinaus bietet Everywhere
Inference jetzt Multi-Tenancy für KI-Workloads und nutzt die
einzigartigen Multi-Tenancy-Funktionen von Gcore, um mehrere
Inferenzaufgaben gleichzeitig auf der bestehenden Infrastruktur
auszuführen. Dieser Ansatz optimiert die Ressourcennutzung und
erh�ht die Effizienz.
Die neuen Funktionen adressieren aktuelle Herausforderungen, mit
denen Unternehmen beim Einsatz von KI-Inferenz konfrontiert sind.
Der Ausgleich zwischen mehreren Cloud-Anbietern und lokalen
Systemen für den Betrieb und die Einhaltung von rechtlichen
Vorschriften kann sehr komplex sein. Durch die Einführung von Smart
Routing k�nnen Benutzer Workloads in die von ihnen bevorzugte
Region leiten und so die Einhaltung lokaler Datenvorschriften und
Branchenstandards gewährleisten. Mit den neuen
Bereitstellungsoptionen von Gcore k�nnen Unternehmen außerdem
sensible Informationen sicher vor Ort isolieren und so den
Datenschutz verbessern.
Erfahren Sie mehr unter
https://gcore.com/everywhere-inference
###
Über Gcore
Gcore ist ein führender international tätiger Anbieter von
Public Cloud und Edge Computing, KI, Content Delivery (CDN),
Hosting und Security-L�sungen. Mit Hauptsitz in Luxemburg und mehr
als 600 Mitarbeitenden bietet das Unternehmen seine Produkte
weltweit an. Gcore betreibt seine eigene globale IT-Infrastruktur
auf sechs Kontinenten und verfügt über eine der besten
Netzwerkleistungen in Europa, Afrika und Lateinamerika mit einer
durchschnittlichen Reaktionszeit von 30 ms. Das Netzwerk besteht
aus mehr als 180 Präsenzpunkten auf der ganzen Welt in
zuverlässigen Tier IV- und Tier III-Rechenzentren mit einer
Gesamtkapazität von mehr als 200 Tbps.
Originalversion auf businesswire.com
ansehen: https://www.businesswire.com/news/home/20250116494675/de/
Pressekontakt Alina Nagel Oseon +49160 94945047
alina@oseon.com