-

Liquid AI veröffentlicht die weltweit schnellsten und leistungsstärksten Open-Source-Modelle mit kleiner Grundstruktur

Edge-Modelle der nächsten Generation übertreffen weltweit führende Wettbewerber und sind jetzt als Open Source auf Hugging Face verfügbar

CAMBRIDGE, Mass.--(BUSINESS WIRE)--Liquid AI hat heute die Einführung seiner Liquid Foundation Models (LFM2) der nächsten Generation bekannt gegeben, die in der Edge-Modellklasse neue Rekorde in Bezug auf Geschwindigkeit, Energieeffizienz und Qualität aufstellen. Diese Version basiert auf dem First-Principles-Ansatz von Liquid AI für das Modelldesign. Im Gegensatz zu herkömmlichen transformatorbasierten Modellen besteht LFM2 aus strukturierten, adaptiven Operatoren, die ein effizienteres Training, schnellere Inferenz und eine bessere Generalisierung ermöglichen – insbesondere in Szenarien mit langem Kontext oder begrenzten Ressourcen.

Liquid AI hat sein LFM2 als Open Source veröffentlicht und damit die neuartige Architektur in voller Transparenz der Welt vorgestellt. Die neuen Gewichte von LFM2 können nun über Hugging Face heruntergeladen werden und stehen auch über den Liquid Playground zum Testen zur Verfügung. Liquid AI gab außerdem bekannt, dass die Modelle in die Edge AI-Plattform des Unternehmens sowie in eine iOS-native Verbraucher-App integriert werden, um in den kommenden Tagen getestet zu werden.

„Bei Liquid entwickeln wir erstklassige Basismodelle, bei denen Qualität, Latenz und Speichereffizienz im Vordergrund stehen“, erklärte Ramin Hasani, Mitbegründer und CEO von Liquid AI. „Die Modelle der LFM2-Serie wurden für den Einsatz auf jedem Prozessor entwickelt und optimiert, wodurch die Anwendungen generativer und Agentic AI am Edge vollständig erschlossen werden. LFM2 ist das erste Modell einer Reihe leistungsstarker Modelle, die wir in den kommenden Monaten auf den Markt bringen werden.“

Die Veröffentlichung von LFM2 stellt einen Meilenstein im globalen KI-Wettbewerb dar und ist das erste Mal, dass ein US-Unternehmen öffentlich deutliche Effizienz- und Qualitätssteigerungen gegenüber den führenden Open-Source-Modellen für kleine Sprachen aus China, darunter auch Modelle von Alibaba und ByteDance, nachweisen konnte.

In direkten Vergleichen übertreffen LFM2-Modelle die modernsten Konkurrenzprodukte in Bezug auf Geschwindigkeit, Latenz und Befehlsausführung. Wichtige Highlights:

  • LFM2 weist im Vergleich zu Qwen3, Gemma 3n Matformer und allen anderen bisher verfügbaren transformatorbasierten und nicht transformatorbasierten autoregressiven Modellen auf der CPU einen um 200 Prozent höheren Durchsatz und eine geringere Latenz auf.
  • Das Modell ist nicht nur das schnellste, sondern schneidet im Durchschnitt auch deutlich besser ab als Modelle jeder Größenklasse in Bezug auf Befehlsausführung und Funktionsaufruf (die Hauptmerkmale von LLMs beim Aufbau zuverlässiger KI-Agenten). Damit ist LFM2 die ideale Modellwahl für lokale und Edge-Anwendungsfälle.
  • LFMs, die auf dieser neuen Architektur und der neuen Trainingsinfrastruktur basieren, weisen eine um 300 Prozent verbesserte Trainingseffizienz gegenüber früheren Versionen von LFMs auf und sind damit die kostengünstigste Möglichkeit zum Aufbau leistungsfähiger Allzweck-KI-Systeme.

Durch die Verlagerung umfangreicher generativer Modelle von weit entfernten Clouds auf schlanke, geräteinterne LLMs werden Latenzzeiten im Millisekundenbereich, Offline-Ausfallsicherheit und datenhoheitskonforme Privatsphäre ermöglicht. Dies sind Funktionen, die für Telefone, Laptops, Autos, Roboter, Wearables, Satelliten und andere Endgeräte, die in Echtzeit reagieren müssen, unerlässlich sind. Durch die Aggregation wachstumsstarker Branchen wie Edge-KI-Stacks in den Bereichen Unterhaltungselektronik, Robotik, intelligente Geräte, Finanzen, E-Commerce und Bildung, noch bevor die Bereiche Verteidigung, Raumfahrt und Cybersicherheit berücksichtigt werden, steigt der Gesamtmarkt für kompakte, private Fundamentaldatenmodelle bis 2035 auf fast 1 Billion USD.

Liquid AI arbeitet mit einer Vielzahl von Fortune-500-Unternehmen in diesen Branchen zusammen. Sie bieten äußerst effiziente kleine multimodale Basismodelle mit einem sicheren Bereitstellungsstack der Enterprise-Klasse, der jedes Gerät lokal in ein KI-Gerät verwandelt. Dies bietet Liquid AI die Möglichkeit, einen überdurchschnittlich großen Marktanteil zu erlangen, da Unternehmen von Cloud-LLMs zu kosteneffizienter, schneller, privater und lokaler Intelligenz übergehen.

Über Liquid AI:

Liquid AI ist führend im Bereich der künstlichen Intelligenz und entwickelt grundlegende Modelle, die neue Standards für Leistung und Effizienz setzen. Mit dem Ziel, effiziente, universell einsetzbare KI-Systeme in jeder Größenordnung zu entwickeln, erweitert Liquid AI kontinuierlich die Grenzen dessen, wie viel Intelligenz in Smartphones, Laptops, Autos, Satelliten und anderen Geräten integriert werden kann. Weitere Informationen finden Sie unter www.liquid.ai.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.

Contacts

Medien:
Stephen Peters
stephen.peters@liquid.ai

More News From Liquid AI

Liquid’s Edge AI Platform, LEAP, erweitert Support für Laptops zwecks Hochleistung auf AMD Ryzen™- und Ryzen AI™-Prozessoren

CAMBRIDGE, Massachusetts--(BUSINESS WIRE)--Liquid AI, Ausgründung des MIT und führend bei effizienten Grundlagenmodellen, hat heute nativen Support von AMD’s jüngste Ryzen™- und Ryzen AI™-Prozessoren in der Liquid Edge AI Platform (LEAP) bekannt gegeben. Dies eröffnet Entwicklern, die hochwertige On-Device-KI-Lösungen erstellen, neue Horizonte. Durch diese Aktualisierung erhalten Entwickler direkten Zugang zu speicheroptimierten Modellen mit niedriger Latenz, die nun nativ auf AMD’s jüngster „Z...

Liquid AI führt LEAP und Apollo ein: Beginn einer neuen Ära für das Edge-KI-Deployment

CAMBRIDGE, Massachusetts--(BUSINESS WIRE)--Liquid AI, das Unternehmen für Foundation-Modelle, das neue Maßstäbe für Leistung und Effizienz setzt, hat heute die Einführung seiner frühen Entwicklerplattform namens Liquid Edge-AI Platform (LEAP) v0 angekündigt. Die Plattform ermöglicht die Entwicklung und Bereitstellung von KI auf Geräten wie Smartphones, Laptops, Wearables, Drohnen, Autos und anderer lokaler Hardware – ganz ohne Cloud-Infrastruktur. Das Unternehmen stellte außerdem Apollo vor, ei...

G42 und Liquid AI gehen Partnerschaft ein, um Unternehmen private, lokale und effiziente KI-Lösungen in großem Maßstab anzubieten

ABU DHABI, Vereinigte Arabische Emirate & CAMBRIDGE, Massachusetts--(BUSINESS WIRE)--G42, ein globaler Technologiekonzern mit Sitz in Abu Dhabi, und Liquid AI, ein führendes Unternehmen für effiziente Fundamentaldatenmodelle mit Hauptsitz in Cambridge, Massachusetts, gaben heute bekannt, dass sie eine vielseitige kommerzielle Partnerschaft eingegangen sind, um die Entwicklung, das Training und die Vermarktung generativer KI-Lösungen auf Basis der Liquid Foundation Models zu erleichtern. Ziel de...
Back to Newsroom