Nouveau venu dans le quartier : voici comment Langwatch, la startup d'IA d'Amsterdam, sauve les entreprises des désastres de relations publiques et des poursuites judiciaires coûteuses

Dans le paysage en évolution rapide de l’intelligence artificielle, l’IA générative est devenue une technologie révolutionnaire, permettant aux entreprises de créer des solutions innovantes et d’ouvrir de nouvelles possibilités.

Cependant, comme pour toute innovation de rupture, l’intégration de l’IA générative dans les produits et services comporte des risques inhérents, allant de biais involontaires à d’éventuelles fuites de données et à des atteintes à la réputation.

Consciente de ce besoin, une startup basée à Amsterdam, Langwatch, s'est avancée pour relever ces défis de front, en proposant une plateforme de qualité et d'analyse conçue pour garantir le déploiement responsable de solutions d'IA générative.

Dans le cadre de notre série en cours « New Kids on the Block », chez Silicon Canals, nous avons interviewé Manouk Draisma, PDG et co-fondateur de Langwatch.

Dans cette interview, nous avons abordé la nécessité de l'IA générative, ses risques inhérents, les techniques d'assurance qualité de l'entreprise et bien plus encore.

Lisez-le.

Naissance de Langwatch : Identifier le besoin

La naissance de Langwatch remonte aux expériences et observations personnelles des fondateurs au sein de l’industrie de l’IA.

« Même si tout le monde est intrigué par les capacités de la nouvelle génération GenAI, j'ai également remarqué que mes amis dans les entreprises avaient du mal à l'utiliser en toute sécurité », explique Manouk Draisma.

Rogerio Chaves et Manouk Draisma, les fondateurs de Langwatch, se sont rencontrés lors d'une résidence Antler à Amsterdam. Ils ont plus de 25 ans d'expérience dans l'industrie du logiciel, ayant travaillé dans des entreprises comme Booking.com et Lightspeed.

« Lorsque j'ai rencontré mon co-fondateur, Rogerio, le problème qu'il a constaté était similaire à celui qu'il avait rencontré lorsqu'il travaillait chez Booking.com, où ils avaient un contrôle et une compréhension limités de la manière dont les utilisateurs utilisaient le produit », poursuit Draisma.

« Un ami commun nous a réunis alors que tous deux travaillaient sur les produits GenAI dans le cadre d'un projet parallèle. Nous avons compris le véritable problème et la nécessité d'un outil de contrôle qualité et d'analyse, qui a été présenté lors de la naissance de Langwatch », explique Draisma.

Rogerio apporte à l'équipe Langwatch une vaste expertise en ingénierie et en développement de produits. D'autre part, Manouk apporte une tonne d'expérience sur le plan commercial, dirigeant et constituant des équipes dans des startups et des entreprises publiques.

Mission et vision

Alors que les entreprises du monde entier investissent dans de nouveaux outils basés sur l’IA, elles risquent de mal utiliser et d’abuser de l’IA.

L’utilisation abusive des outils d’IA, comme les chatbots injurieux et la manipulation d’achats à 1 $, met en évidence la nécessité d’un plus grand contrôle pour protéger la réputation de la marque.

« Les entreprises de toutes tailles investissent dans la création de nouveaux outils ou dans l’amélioration de leur pile d’outils actuelle grâce à l’utilisation de l’IA. Ils veulent garder le contrôle et éviter les fuites de données sensibles, les utilisations abusives de l'outil ou les atteintes à la réputation de la marque. Langwatch analyse les solutions d'IA, évalue leur qualité et prévient les risques liés à l'IA », explique Draisma.

« Avec cela, notre mission est de donner aux entreprises la confiance nécessaire pour lancer des produits d’IA au public tout en tenant compte de la sécurité, de la qualité et de l’utilité », déclare-t-elle.

Approche de l’assurance qualité

Au cœur de l'offre de Langwatch se trouvent des critères d'évaluation complets conçus pour évaluer la qualité des solutions d'IA sous plusieurs angles. La plateforme exploite trois aspects :

  • Analyse des commentaires des utilisateurs: Langwatch utilise l'analyse des sentiments et les commentaires directs des utilisateurs, combinés aux informations des parties prenantes internes, pour évaluer les performances réelles et l'expérience utilisateur des solutions d'IA.
  • Bibliothèque d'évaluation complète: Langwatch fournit une bibliothèque complète d'évaluations prédéfinies, appelées « Lang-evals », conçues pour identifier et réduire les erreurs courantes commises par les modèles de langage. Ces évaluations analysent les entrées, y compris les requêtes des utilisateurs, les invites, les réponses générées et les documents contextuels ou sources récupérés, pour produire des scores et des explications de réussite/échec, permettant aux entreprises d'identifier et de résoudre les problèmes potentiels.
  • Critère d'évaluation: Reconnaissant les exigences uniques de chaque entreprise, la société néerlandaise offre la flexibilité de définir des critères d'évaluation personnalisés adaptés aux besoins et objectifs organisationnels spécifiques.

Se protéger contre les abus et les fuites de données

L’un des défis majeurs auxquels sont confrontées les entreprises lors du déploiement de solutions d’IA générative est le risque de conversations hors sujet et de fuite de données sensibles.

Langwatch répond à ces préoccupations grâce à des modèles d'IA avancés capables de détecter en temps réel les discussions hors sujet, permettant aux entreprises de remettre les conversations sur les rails avant de générer des réponses potentiellement problématiques.

« Semblable aux fuites de données, la détection des informations personnelles de Langwatch peut être utilisée pour empêcher complètement les messages au contenu sensible, tels que les numéros de carte de crédit et les numéros de téléphone personnels, de sortir de manière involontaire », ajoute-t-elle.

Atténuer les hallucinations et garantir la qualité des résultats

Parmi les risques les plus importants associés à une mauvaise utilisation des outils d’IA figurent les hallucinations (la génération de réponses trompeuses ou entièrement fabriquées) et les inquiétudes quant à la qualité globale des résultats.

« Ce qui est particulièrement troublant, c'est à quel point il peut être difficile de détecter ces réponses fabriquées ! Ils peuvent même paraître plausibles à première vue, ce qui les rend incroyablement insaisissables. Les conséquences de ces erreurs sont importantes : une seule instance peut laisser les utilisateurs incertains et présenter votre produit comme peu fiable ou digne de confiance. C’est pourquoi il est essentiel de s’assurer que l’outil est utilisé uniquement aux fins prévues et d’en mesurer la qualité pour pouvoir réduire au maximum les hallucinations », transmet-elle.

Impact dans le monde réel

Langwatch est approché par des entreprises dans la phase expérimentale de leur « preuve de concept » où elles évaluent manuellement la qualité des réponses de l'IA par le biais d'un examen visuel.

« Ils ont cependant peur du moment où la chose magique entrera en production pour des dizaines de milliers d'utilisateurs. La capacité d'identifier quand l'IA quitte le réseau contribuera à améliorer la solution LLM. Mais il est également essentiel d'agir rapidement dans l'intérêt des utilisateurs », explique Draisma.

Actuellement, Langwatch aide les entreprises de taille moyenne à développer des applications basées sur LLM, soit en interne, soit pour leurs clients.

« Grâce à ce processus, nous les aidons non seulement, mais nous apprenons également du nombre croissant de startups GenAI. Ces startups ont besoin d'aide pour comprendre comment leurs utilisateurs utilisent leurs produits afin d'atteindre leur « adéquation produit-marché » », ajoute-t-elle.

Financement

Langwatch a levé son premier investissement de pré-amorçage via Antler en janvier.

En février, la startup néerlandaise a lancé son premier produit minimum viable (MVP) avec des clients pilotes initiaux, les convertissant avec succès en clients payants d'ici avril.

Ils ont également obtenu un financement de la Rabobank.

« Avec ce géant et cette vitesse de traction, et en voyant le besoin élevé de ce produit, nous visons à clôturer un autre cycle avant l'été pour nous concentrer pleinement sur le développement ultérieur de leur produit », révèle-t-elle.

Le rôle du bois

Le parcours de Langwatch a été considérablement façonné par le soutien et les conseils fournis par Antler. En fait, l’investisseur initial a joué un rôle central en facilitant la formation de l’équipe fondatrice.

« Alors que Manouk avait initialement pour objectif de trouver le co-fondateur idéal pendant son séjour chez Antler, cet objectif n'a pas été atteint dans le cadre du programme. Cependant, Antler a continué à soutenir ses efforts pour trouver un partenaire approprié », déclare RJ Schuurs, associé chez Antler to Silicon Canals.

« Lorsque Manouk s'est finalement associé à Rogerio, Antler a rapidement reconnu le potentiel de leur partenariat et a réalisé un investissement immédiat. La persévérance de Manouk ainsi que ce soutien continu et cette croyance dans la vision du fondateur ont considérablement façonné le parcours de Langwatch », ajoute-t-il :

Au-delà du financement, la société a bénéficié du vaste réseau de cofondateurs potentiels d'Antler, de liens avec d'autres fondateurs de portefeuille, de commentaires et de conseils stratégiques sur les stratégies de financement, accélérant la résolution des défis initiaux et propulsant l'entreprise vers l'avant.