-

White Circle, plateforme de contrôle pour les applications d'IA, lève 11 millions de dollars auprès de géants du secteur après que son fondateur soit devenu viral en révélant une défaillance du système de sécurité dans les plus grands modèles d'IA

  • White Circle est la couche manquante de l'IA, une plateforme unique qui permet aux entreprises de surveiller, de sécuriser et de contrôler en temps réel tout ce que font leurs modèles d'IA
  • Des dirigeants d'OpenAI, d'Anthropic, de DeepMind, de Hugging Face, de Mistral et d'autres entreprises ont apporté leur soutien à White Circle après que son fondateur soit devenu viral pour avoir débridé des modèles à partir d'un simple prompt
  • Avec plus, pour le moment, plus d'un milliard de requêtes API cette plateforme de niveau entreprise est déjà utilisée par des acteurs internationaux tels que Lovable, deux des plus grandes banques numériques au monde et bien d'autres encore pour garantir la responsabilité de leur IA

PARIS--(BUSINESS WIRE)--White Circle, la plateforme de confiance des marques internationales pour le contrôle de leurs modèles d'IA, a levé 11 millions de dollars auprès des plus grands acteurs du secteur, parmi lesquels Romain Huet (OpenAI), Dirk Kingma (ex-OpenAI, désormais chez Anthropic), Guillaume Lample (Mistral), Thomas Wolf (Hugging Face), Olivier Pomel (Datadog), François Chollet (Keras), Mehdi Ghissassi (ex-DeepMind), Paige Bailey (DeepMind) et David Cramer (Sentry). Ce financement d'amorçage permettra d'accélérer le développement du produit, de développer ses équipes aux États-Unis, au Royaume-Uni et en Europe, et d'élargir sa clientèle mondiale.

Alors que les entreprises cherchent à profiter de l'essor de l'IA, que le vibe coding permet à quiconque de lancer des produits d'IA en un clin d'œil et que les cas de modèles d'IA échappant à leurs garde-fous se multiplient, White Circle est la seule plateforme tout-en-un de niveau entreprise qui teste, protège, observe et améliore l'IA en temps réel.

Elle a été fondée par l'ingénieur Denis Shilov, devenu viral en 2024 lorsqu'il a contourné les filtres de sécurité de tous les principaux modèles d'IA grâce à une simple prompt. Ce jailbreak universel lui permettait de débrider des prompts pour fabriquer des drogues et des armes, d'accéder à des informations dangereuses ou illégales et d'extraire tout ce que des modèles comme ChatGPT, Claude et d'autres avaient été explicitement conçus pour opposer un refus.

Après avoir atteint 1,4 million de vues, la publication a attiré l'attention d'Anthropic, d'OpenAI et de Hugging Face, ce qui a conduit à inviter M. Shilov à rejoindre le programme de primes aux bogues d'Anthropic et, plus tard, la création de la plateforme White Circle pour répondre à la demande croissante des fournisseurs d'IA.

Une source unique de vérité et de confiance

Les modèles propriétaires de White Circle surveillent en temps réel les entrées et sorties de l'IA. En fonction des politiques personnalisées de chaque entreprise, ils détectent les contenus nuisibles, repèrent les hallucinations, préviennent les attaques par injection de prompts, signalent les dérives des modèles et identifient les utilisateurs abusifs ou malveillants. Les données issues de ces analyses permettent aux équipes de comprendre les performances de leurs modèles dans différents cas d'utilisation, facilitant ainsi le choix des modèles les plus adaptés et leur amélioration continue. Ce processus s'effectue via une API unique.

Dans la pratique, White Circle peut détecter les fuites de données clients sensibles provenant de modèles fintech, empêcher un agent d'IA d'exécuter des instructions malveillantes (suppression de fichiers, perturbation des systèmes, etc.), signaler et bannir les utilisateurs qui tentent d'abuser du système, et détecter la frustration croissante des utilisateurs lorsqu'un modèle commence à dysfonctionner. Les équipes peuvent définir des politiques personnalisées pour contrôler précisément les actions autorisées selon leurs besoins, notamment des mesures d'application automatisées comme la limitation du débit ou le bannissement des acteurs malveillants. Les modèles s'améliorent continuellement grâce aux retours utilisateurs étiquetés, gagnant ainsi en précision et en adaptation à chaque cas d'utilisation. La prise en charge de 150 langues garantit un fonctionnement fiable sur l'ensemble des produits à l'échelle mondiale.

La plateforme est dirigée par la responsable de la conception, Elena Iumagulova. White Circle est également certifiée SOC 2 Type I et Type II et conforme à la loi HIPAA.

« L'IA évolue plus vite que notre capacité à la maîtriser », a déclaré Denis Shilov, fondateur et CEO de White Circle. « Elle suscite déjà notre confiance pour des décisions qui touchent des millions de personnes, du recrutement à la santé, en passant par la finance et la sécurité, et avec l'essor du vibe coding, n'importe qui peut lancer un produit d'IA sans savoir ce que fait réellement ce modèle une fois devenu opérationnel. Jusqu'à présent, aucune plateforme n'était spécifiquement conçue pour surveiller le comportement de l'IA, détecter les dysfonctionnements et orienter son comportement. Avec White Circle, nous offrons enfin aux entreprises tout ce dont elles ont besoin pour garantir la responsabilité de leur IA et optimiser leurs modèles à partir d'une seule et même plateforme, sans compromettre la sécurité, la conformité ni la gestion des risques. »

Elena Iumagulova, responsable de la conception chez White Circle, a déclaré : « Nous souhaitions que chaque équipe, quelle soit technique ou non, puisse voir exactement ce que fait son IA à partir d'un seul et même endroit, qu'elle découvre ses modèles pour la première fois ou qu'elle déploie l'IA à grande échelle et doive détecter rapidement les problèmes. De la détection en temps réel à l'analyse et à l'optimisation, tout est regroupé et connecté via une API unique. »

Garantir la responsabilité de l'IA

Dans le cadre de sa mission visant à combler les lacunes en matière de responsabilité de l'IA, les travaux de recherche de White Circle continuent de façonner la manière dont le secteur appréhende le risque des modèles. En mai 2025, l'entreprise a publié CircleGuardBench, un benchmark permettant d'évaluer la performance effective des modèles de modération d'IA en conditions réelles. Cet outil permet à chacun d'effectuer une recherche par modèle et d'en consulter les performances.

Plus récemment, l'entreprise a publié son étude KillBench , dans laquelle plus d'un million d'expériences sur 15 modèles d'IA ont été menées, notamment ceux d'OpenAI, de Google, d'Anthropic et de xAI, afin de faire apparaître des biais cachés. Au moment de prendre des décisions concernant des vies humaines, tous les modèles ont manifesté des préférences en fonction de la nationalité, de la religion, de la morphologie et même de la marque du téléphone. L'étude a également révélé que les résultats structurés, méthode d'intégration standard pour l'IA en production, entraînaient systématiquement une chute des taux de refus et une amplification des biais.

« Denis et l'équipe de White Circle possèdent une combinaison peu fréquente de grande crédibilité technique et d'un sens des affaires affûté », a déclaré Ophelia Cai, Partner chez Tiny VC. « À elle seule, l'étude KillBench démontre ce qu'il est possible d'accomplir lorsque l'on aborde la sécurité de l'IA de manière empirique plutôt qu'idéologique, et l'équipe est, à ce propos, en train de créer l'infrastructure dont l'industrie a réellement besoin. »

FINS

À propos de White Circle

White Circle est une plateforme de contrôle pour les applications de l'IA qui permet aux entreprises de surveiller, protéger et optimiser leurs modèles d'IA en production. Elle vérifie les E/S par rapport à des politiques personnalisées, détecte les anomalies et les injections de prompts, et fournit des analyses en temps réel sur le comportement des modèles. White Circle est conforme aux normes SOC 2 et à la loi HIPAA et prend en charge plus de 150 langues. Rendez-vous sur whitecircle.ai

Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.

Contacts

Aimee Soulsby
aimee@burlington.cc

Back to Newsroom