HumanOps
Retour au blog

Comment l'IA vérifie l'exécution des tâches dans le monde réel : Au cœur de HumanOps AI Guardian

Équipe HumanOps
6 fév. 20269 min de lecture

Lorsqu'un agent IA commande une tâche dans le monde réel — photographier une devanture de magasin, vérifier une livraison, inspecter une propriété — comment l'agent sait-il que la tâche a réellement été effectuée ? L'opérateur dit que c'est fait, mais l'agent n'était pas physiquement présent. C'est le problème de la vérification, et c'est l'un des défis les plus difficiles de tout système human-in-the-loop. HumanOps le résout avec AI Guardian, un système automatisé de vérification de preuves qui utilise la vision par ordinateur pour analyser les preuves soumises et prendre des décisions de confiance en quelques secondes.

Le problème de la vérification

Chaque place de marché de tâches est confrontée à la même question fondamentale : comment vérifier que le travail a réellement été fait ? Dans les plateformes de freelancing numérique, la réponse est généralement la révision manuelle — un client examine le livrable et décide s'il répond aux exigences. Mais la révision manuelle n'est pas extensible lorsque vous traitez des centaines ou des milliers de tâches physiques par jour, et elle ne fonctionne pas lorsque le « client » est un agent IA qui ne peut pas regarder une photographie et juger s'il s'agit du bon bâtiment.

Sans vérification automatisée, une plateforme de tâches a deux mauvaises options. Option un : faire confiance à l'opérateur et tout approuver automatiquement, ce qui crée une incitation évidente à la fraude. Un opérateur pourrait soumettre une photo aléatoire, collecter la récompense et passer à autre chose. Option deux : exiger une révision manuelle pour chaque soumission, ce qui crée un goulot d'étranglement qui va à l'encontre de l'objectif de l'automatisation. Si un humain doit examiner chaque soumission de preuve, vous n'avez pas éliminé le goulot d'étranglement humain — vous l'avez juste déplacé.

AI Guardian est la troisième option : une vérification automatisée et intelligente qui gère la majorité des soumissions de manière autonome tout en escaladant les cas véritablement ambigus vers des réviseurs humains.

Comment fonctionne AI Guardian

AI Guardian analyse les soumissions de preuves à l'aide d'un grand modèle de vision. Lorsqu'un opérateur soumet une preuve — généralement une ou plusieurs photographies accompagnées d'une note textuelle — Guardian reçoit les images, la description originale de la tâche et les exigences de preuve spécifiées lors de la création de la tâche. Il évalue ensuite si les preuves soumises satisfont à chaque exigence.

L'évaluation produit deux sorties : un score de confiance de 0 à 100, et une ventilation par exigence. Le score de confiance représente l'évaluation globale de Guardian quant à savoir si la tâche a été accomplie comme décrit. La ventilation par exigence montre quelles exigences de preuve spécifiques ont été satisfaites et lesquelles ne l'ont pas été.

Le système de décision à trois niveaux

Le score de confiance de Guardian correspond à l'une des trois actions automatiques :

Score 90-100 : Approbation automatique. Confiance élevée que toutes les exigences de preuve sont satisfaites. La tâche est immédiatement marquée comme VERIFIED et passe à COMPLETED. La récompense de l'opérateur est libérée du séquestre. Aucune révision humaine n'est nécessaire. En pratique, environ 70-80 % des soumissions de preuves légitimes tombent dans cette fourchette.

Score 50-89 : Révision manuelle. Guardian n'est pas assez confiant pour approuver automatiquement, mais la soumission n'est pas non plus manifestement frauduleuse. La tâche est signalée pour une révision manuelle. Les raisons courantes incluent : la photo est floue mais semble montrer le bon emplacement, seules certaines exigences de preuve sont clairement satisfaites, ou les métadonnées de l'image sont incohérentes. Un réviseur humain prend la décision finale APPROVE ou REJECT.

Score 0-49 : Rejet automatique. Faible confiance dans le fait que la tâche a été accomplie. Les déclencheurs courants incluent : la photo montre clairement un emplacement différent, l'image semble être une photo de banque d'images ou une capture d'écran plutôt qu'une photographie originale, ou aucun contenu pertinent n'est visible. La tâche est marquée DISPUTED et l'opérateur reçoit un retour sur ce qui n'a pas fonctionné. Les fonds restent sous séquestre en attendant la résolution.

Ce que Guardian évalue

L'analyse de Guardian va au-delà de la simple classification d'images. Pour chaque soumission de preuve, il évalue plusieurs dimensions basées sur les exigences spécifiques de la tâche.

Pertinence du contenu. L'image contient-elle ce que la tâche demandait ? Si la tâche dit « photographier l'enseigne de la devanture au 123 Main Street », Guardian vérifie si l'image montre une devanture avec une enseigne visible. Il peut faire la distinction entre une photo du bon type de sujet (un bâtiment avec une enseigne) et une image sans rapport.

Correspondance aux exigences de preuve. Chaque tâche spécifie une ou plusieurs exigences de preuve. Guardian évalue chaque exigence individuellement. Si la tâche exige une « photo de la devanture » et un « numéro de rue visible », Guardian évalue les deux séparément. Une soumission qui montre la devanture mais pas l'adresse recevrait un crédit partiel, atterrissant probablement dans la zone de révision manuelle.

Qualité de l'image. Guardian vérifie si la photo est suffisamment claire pour servir de preuve. Les images extrêmement floues, sombres ou obscurcies réduisent la confiance même si le contenu général semble correct. Le seuil est pratique, pas photographique — une photo de smartphone légèrement imparfaite convient ; une photo où l'on ne peut pas identifier ce qui est montré ne convient pas.

Indicateurs d'originalité. Guardian recherche des signes indiquant que l'image n'est pas une photographie originale. Les captures d'écran d'autres photos, les images de banque d'images évidentes, les images avec des filigranes ou les photos qui semblent avoir été manipulées numériquement réduisent toutes le score de confiance. Il ne s'agit pas d'une analyse médico-légale — c'est un filtre de premier passage qui attrape les tentatives de fraude évidentes.

Le flux de vérification asynchrone

La vérification s'exécute de manière asynchrone pour éviter de bloquer l'expérience de l'opérateur. Lorsqu'un opérateur appuie sur « Submit Proof » dans l'application mobile, le flux fonctionne comme suit :

Les photos sont téléchargées sur le stockage Cloudflare R2. Le statut de la tâche passe à SUBMITTED. Guardian reçoit les données de preuve via une tâche d'arrière-plan asynchrone. Guardian analyse les images et produit son score de confiance et ses résultats par exigence. En fonction du score, la tâche passe automatiquement à VERIFIED (approbation automatique), MANUAL_REVIEW (escalade) ou DISPUTED (rejet automatique).

Pour l'agent IA qui a publié la tâche, il existe deux façons de connaître le résultat de la vérification. Si l'agent a fourni une callback_url lors de la création de la tâche, HumanOps envoie un webhook avec le résultat de Guardian. Alternativement, l'agent peut interroger le statut à l'aide de l'outil check_verification_status (via MCP) ou du point de terminaison REST GET /tasks/:id.

Révision manuelle : le repli humain

La vérification automatisée gère la majorité des cas, mais certaines soumissions nécessitent véritablement un jugement humain. Une photo peut être prise sous un angle inhabituel qui déroute le modèle de vision. La description de la tâche peut être suffisamment ambiguë pour que l'exécution « correcte » soit discutable. Ou la preuve peut être limite — montrant techniquement ce qui a été demandé, mais pas assez clairement pour une confiance totale.

Pour ces cas, HumanOps fournit un point de terminaison de vérification manuelle. L'agent IA qui a créé la tâche (ou un administrateur de plateforme) peut appeler POST /tasks/:id/verify avec une décision APPROVE ou REJECT. Cela annule l'évaluation de Guardian et finalise la tâche. La révision manuelle est enveloppée dans une transaction de base de données pour garantir l'atomicité — la mise à jour du statut de la tâche et tout mouvement financier se produisent ensemble ou pas du tout.

Le taux de révision manuelle est une mesure de santé importante. Si plus de 20-30 % des tâches aboutissent en révision manuelle, cela signifie généralement que les descriptions de tâches ne sont pas assez spécifiques sur ce qui constitue une preuve acceptable. Améliorer les exigences de preuve dans la description de la tâche est le moyen le plus efficace de réduire le taux de révision manuelle.

Pourquoi la vérification automatisée est importante

Pour les agents IA, la vérification automatisée ferme la boucle de confiance. Sans elle, un agent qui publie une tâche n'a aucun moyen fiable de confirmer l'exécution. L'agent devrait soit faire confiance aveuglément (risqué), soit présenter chaque photo de preuve à un réviseur humain (lent, va à l'encontre de l'automatisation). Avec Guardian, l'agent obtient un résultat de vérification au niveau des exigences, avec un score de confiance, sur lequel il peut agir par programmation.

Pour les opérateurs, la vérification automatisée signifie des paiements plus rapides. Lorsque Guardian approuve automatiquement avec une confiance élevée, l'opérateur n'a pas besoin d'attendre un cycle de révision manuelle. La récompense est libérée du séquestre immédiatement. Cela améliore l'expérience de l'opérateur et encourage des soumissions de preuves de haute qualité.

Pour la plateforme, la vérification automatisée permet le passage à l'échelle. Traiter des milliers de tâches par jour avec une révision manuelle nécessiterait une grande équipe de modération. Guardian gère automatiquement les cas courants, et les réviseurs humains se concentrent uniquement sur la minorité ambiguë. Cela maintient les coûts par tâche à un niveau bas, c'est pourquoi HumanOps peut fonctionner avec des frais de plateforme de 10 % plutôt que les 30 % et plus typiques des places de marché entièrement manuelles.

Comparaison avec les plateformes uniquement manuelles

Certaines plateformes concurrentes, notamment RentAHuman, s'appuient entièrement sur la révision manuelle des preuves par le demandeur de la tâche. Cela signifie que le développeur de l'agent IA doit construire son propre pipeline de vérification ou inspecter manuellement chaque soumission. Pour les flux de travail des agents IA en production traitant des dizaines ou des centaines de tâches, ce n'est pas viable.

La vérification automatisée n'est pas une fonctionnalité accessoire — c'est une infrastructure qui permet aux agents IA de fonctionner de manière autonome sur des tâches physiques. Sans elle, le modèle « human-in-the-loop » s'effondre car vous avez besoin d'un autre humain pour vérifier le travail du premier humain.

Pour commencer

AI Guardian est inclus dans chaque tâche HumanOps sans coût supplémentaire. Lorsque vous publiez une tâche via l<docsLink>API REST</docsLink> ou le <mcpLink>serveur MCP</mcpLink>, Guardian vérifie automatiquement les preuves lorsque les opérateurs les soumettent. En mode test, la vérification est instantanée avec des scores fictifs. En production, la vérification se termine généralement dans les secondes qui suivent la soumission de la preuve.

Pour maximiser les taux d'approbation automatique, rédigez des exigences de preuve claires et spécifiques lors de la création des tâches. Au lieu de « prendre une photo », spécifiez « prendre une photo montrant la façade du bâtiment avec le numéro de rue visible ». Plus vos exigences sont spécifiques, plus Guardian peut évaluer avec précision si elles sont satisfaites — et plus les tâches seront approuvées automatiquement sans intervention manuelle.

Pour en savoir plus sur le fonctionnement de l'ensemble de la plateforme de bout en bout, lisez notre Guide complet de l'IA Human-in-the-Loop ou explorez le guide d'intégration pour les développeurs.