-

Vespa.ai annonce la prise en charge de ColPali dans le cadre de la génération augmentée de récupération (RAG)

L’intégration simplifie et améliore la récupération d’informations issues de documents complexes et visuellement riches

TRONDHEIM, Norvège--(BUSINESS WIRE)--Vespa.ai, développeur de la plateforme leader pour les applications d’IA, dont la génération augmentée de récupération (Retrieval-Augmented Generation, RAG), a annoncé aujourd’hui la prise en charge de ColPali, un nouveau modèle de recherche open source pour les documents visuellement riches tels que les PDF.

ColPali améliore la récupération documentaire en intégrant des documents rendus entiers, y compris les éléments visuels, dans des représentations vectorielles optimisées pour les grands modèles de langage (LLM). Cela permet de réduire le temps de latence, d’améliorer la précision et de rendre la recherche d’informations plus contextuelle, en particulier pour les contenus visuellement riches. En traitant les documents comme des entités visuelles plutôt que comme du texte, ColPali élimine les prétraitements complexes, préserve le contexte visuel et rationalise le pipeline RAG.

Jon Bratseth, PDG et fondateur de Vespa.ai, a déclaré : « Avec les capacités de ColPali combinées à notre architecture évolutive et à la recherche hybride, Vespa.ai offre la solution la plus rapide et la plus précise pour les applications d’IA générative et de RAG à grande échelle. Vespa est disponible en tant que service pour simplifier le déploiement. »

À propos de Vespa

Vespa est une plateforme utilisée pour créer et exécuter des applications pilotées par l’IA à des fins de recherche, de recommandation, de personnalisation et de génération augmentée de récupération (RAG). Elle permet de prendre en charge de larges volumes de données et des taux de requêtes élevés, offrant une gestion efficace des données, de l’inférence et de la logique. Vespa est disponible à la fois comme service géré et en open source.

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.

Contacts

Contact médias
Tim Young
timyoung@vespa.ai

More News From Vespa.ai

GigaOm Radar pour les bases de données vectorielles v3 positionne Vespa.ai en tant que Leader et Outperformer

TRONDHEIM, Norvège--(BUSINESS WIRE)--Vespa.ai, le créateur de la plateforme de recherche d’IA pour la création et le déploiement d’applications d’IA en temps réel à grande échelle alimentées par le big data, annonce aujourd’hui sa reconnaissance en tant que Leader et Outperformer dans le radar GigaOm pour les bases de données vectorielles v3, marquant ainsi la troisième année consécutive d’évaluation de l’entreprise dans le cadre de la recherche sur les bases de données vectorielles de GigaOm....

Harini Gopalakrishnan rejoint Vespa.ai comme directeur général de la santé et des sciences du vivant

TRONDHEIM, Norvège--(BUSINESS WIRE)--Vespa.ai, la plateforme d'applications d'IA à grande échelle et en temps réel alimentée par le big data, annonce aujourd'hui la nomination de Harini Gopalakrishnan au poste de directeur général de la santé et des sciences du vivant. M. Gopalakrishnan, anciennement CTO pour les sciences du vivant chez Snowflake, mènera des initiatives stratégiques de Vespa dans ce secteur. Vespa.ai fournit l'infrastructure nécessaire à la création et au déploiement d'applicat...

Perplexity s'associe à Vespa.ai pour internaliser sa fonction de recherche

TRONDHEIM, Norvège--(BUSINESS WIRE)--Aujourd'hui, Vespa.ai, l'entreprise à l'origine de la première plateforme de création et de déploiement d'applications d'IA en temps réel et à grande échelle, alimentées par le big data, s'est jointe à Perplexity pour annoncer que le moteur de réponses alimenté par l'IA avait décidé d'internaliser sa fonction de recherche. Ce changement permettra d'améliorer considérablement la vitesse, la précision et la pertinence des résultats de recherche à une échelle q...
Back to Newsroom