ai 8 min • advanced

Les pipelines axés sur la provenance réorganisent la pile d'apprentissage multimodal de NVIDIA

Une immersion technique approfondie dans l'ingestion, la curation, la déduplication, l'échantillonnage conscient des métadonnées et le mélange réel-synthétique qui renforcent les modèles de vision, de vidéo et de code pour une utilisation en entreprise

Par AI Research Team
Les pipelines axés sur la provenance réorganisent la pile d'apprentissage multimodal de NVIDIA

Les pipelines axés sur la provenance réorganisent la pile d’entraînement multimodal de NVIDIA

Les catalogues éditoriaux avec des contributions de contributeurs, les corpus de code conscients des licences et les moteurs synthétiques de simulation redéfinissent la manière dont les modèles multimodaux sont entraînés. Alors que la loi sur l’IA de l’Europe pousse à des résumés transparents sur les données d’entraînement et que les actions juridiques de Getty augmentent les enjeux quant à l’ingestion non autorisée, NVIDIA a reconstruit des parties clés de sa pile autour de flux de données centrés sur la provenance. Le résultat est une architecture d’entraînement qui remplace les grattages fragiles du web par des bibliothèques avec droits autorisés, un échantillonnage conscient des métadonnées, une déduplication à grande échelle et un mélange réel-synthétique de principe à travers la vision, la vidéo et le code. Cela aligne également la livraison des modèles avec les exigences de gouvernance d’entreprise, où la traçabilité et l’application répétable des politiques sont non-négociables.

Cet article cartographie le plan technique: comment l’ingestion, la curation et les signaux de licence se propagent à travers les pipelines multimodaux; comment les familles de hachage exact/perceptuel et MinHash réduisent les risques de mémorisation; comment l’échantillonnage conscient des métadonnées et les données synthétiques étendent la couverture des cas rares; comment la manipulation temporelle dans la vidéo améliore la qualité des étiquettes; et comment les microservices conteneurisés stabilisent l’application des politiques et la traçabilité. Les lecteurs verront comment ces choix impactent la robustesse, la calibration et la préparation de l’entreprise — et où les métriques restent indisponibles ou dépendent de l’implémentation.

Détails d’Architecture/Implémentation

Du grattage en premier à la provenance en premier

Les anciens pipelines de NVIDIA ressemblaient à ceux de l’industrie: de grands grattages du web pour le texte et les images, augmentés par des ensembles de données académiques et des ensembles synthétiques en croissance. Ce modèle offrait de l’échelle mais peu de provenance, une couverture démographique incohérente et une exposition plus élevée à la toxicité/NSFW. La ré-architecture se centre sur:

flowchart TD;
 A["Corpus visuels avec droits autorisés"] -->|s'intègre avec| B["Points de terminaison générationnels d'entreprise"];
 A -->|implique| C["Programmes de consentement des contributeurs"];
 A -->|inclut| D["Métadonnées riches"];
 B --> E["Flux de travail de simulation (Omniverse)"];
 B --> F["Partenariats avec Getty Images et Shutterstock"];
 G["Fondation de code conscient de la licence"] -->|utilise| H["StarCoder2"];
 H --> I["Entraîné sur The Stack v2"];
 A -->|agrandissement synthétique avec| J["Omniverse Replicator et Isaac Sim"];

Ce diagramme illustre la transition de l’ancien pipeline de grattage en premier de NVIDIA à une architecture axée sur la provenance, en mettant l’accent sur l’intégration du corpus visuel avec droits autorisés avec les systèmes d’entreprise, les programmes de consentement et les fondations de code conscientes des licences.

  • Corpus visuels avec droits autorisés intégrés avec des points de terminaison générationnels d’entreprise (Picasso/Edify) et des flux de travail de simulation (Omniverse), principalement via des partenariats avec Getty Images et Shutterstock. Ces catalogues arrivent avec des programmes de consentement des contributeurs, des versions de modèle/propriété, des chemins d’indemnisation et des métadonnées riches qui circulent à travers l’entraînement et le déploiement.
  • Une fondation de code conscient de la licence à travers StarCoder2 entraînée sur The Stack v2, un corpus sélectionné avec dé-PII et filtrage des malwares et signaux de licence documentés.
  • Agrandissement synthétique avec Omniverse Replicator et Isaac Sim pour des données photoréalistes en vision/3D/vidéo avec des étiquettes parfaites et une randomisation de domaine, plus Nemotron pour générer des données d’instruction et de préférence qui sont contraintes par des politiques et traçables.
  • Livraison consciente de la provenance via les microservices NVIDIA NIM et les NeMo Guardrails, qui encapsulent les contrôles d’ingestion, le filtrage de sécurité, la journalisation et l’application des politiques pour l’entraînement et l’inférence.

Le résultat: la provenance devient un signal de première classe qui façonne chaque étape en aval — déduplication, échantillonnage, évaluation et conformité.

Ingestion multimodale par modalité

  • Vision/3D/Video: Les bibliothèques d’images et de vidéo stock/éditorial licenciées fournissent une largeur de catégorie, des versions pour utilisation entreprise, et des métadonnées à travers la géographie, la démographie, et la composition de la scène. Ces actifs conditionnent et entraînent les modèles de diffusion et d’édition dans Picasso/Edify et alimentent les flux de travail de simulation dans Omniverse. Les données synthétiques de Replicator et Isaac Sim étendent les conditions à longue traîne (conditions météorologiques rares, dangers, cinématiques robotiques) avec des annotations précises, fournissant des réglages contrôlables pour l’équilibre de distribution.
  • Texte/Audio: Sans accords exclusifs avec des éditeurs ou de l’audio, le texte et l’audio s’appuient sur des corpus ouverts augmentés par les données d’alignement générées par Nemotron et les domaines fournis par les clients. Les gains de diversité sont plus stables ici, et la profondeur multilingue dépend des sources non-anglaises sélectionnées et de la qualité des signaux d’alignement.
  • Code: L’entraînement de StarCoder2 sur The Stack v2 introduit une sensibilisation à la licence à travers les langues et les cadres avec un filtrage dé-PII et des malwares documenté dans la carte du dataset, améliorant la conformité et la confiance en aval pour les modèles de code déployés via NIM/NeMo.

Curation, filtrage PII/malware, et propagation des signaux de licence

La curation pivote des heuristiques après coup vers des garanties de qualité en amont:

  • Visuel: Le contenu avec droits autorisés arrive avec des versions explicites, des légendes, et des descripteurs éditoriaux. Ces champs se propagent dans les enregistrements d’entraînement et les magasins de RAG/conditionnement, permettant des audits par groupe et des flux de travail de retrait. Le filtrage de sécurité bénéficie d’une prévalence de toxicité/NSFW de base plus faible par rapport aux grattages ouverts, avec une enforcement supplémentaire de la politique pendant l’entraînement et l’inférence via les NeMo Guardrails.
  • Code: Le filtrage documenté dé-PII et des malwares de The Stack v2 réduit la fuite de données sensibles et l’exposition à du code non sûr tout en gardant les signaux de licence intacts pour l’auditabilité et les contraintes de distribution en aval.
  • Texte/Audio: Les données d’alignement générées via Nemotron sont traçables et contraintes par des politiques, permettant aux équipes de contrôler et de consigner la création d’instructions et de préférences synthétiques.

À travers les modalités, les champs de licence et les métadonnées de consentement sont transférés à travers la lignée des données pour que les équipes puissent répondre à « ce qui est entré dans ce modèle » avec une granularité exploitable.

Déduplication à grande échelle: hachage exact/perceptuel et familles MinHash

L’ingestion axée sur la provenance change le problème de déduplication de « nettoyer un grattage bruyant » à « consolider autour d’une copie canonique, sous licence ». Les équipes appliquent:

  • Le hachage exact/perceptuel pour les images et les cadres vidéo, combiné à une recherche d’approximations de voisins les plus proches pour capturer presque les doublons à travers les cultures, redimensionnements, et ré-encodages.
  • Le filtrage MinHash/SimHash/n-gram pour le texte et le code pour supprimer les extraits répétés, les gabarits de texte, et les échantillons re‐publiés à travers les corpus.

Les preuves empiriques dans les modèles de langage montrent que la déduplication réduit la mémorisation et améliore la généralisation; des bénéfices similaires s’appliquent aux pipelines multimodaux lorsqu’ils sont associés à un échantillonnage conscient des métadonnées. Pratiquement, les organisations devraient s’attendre à des taux de presque-doublons plus bas après consolidation autour de corpus sous licence, une entropie de catégorie effective plus élevée, et moins de fuites toxiques/NSFW que les bases ouvertes de grattage.

Échantillonnage conscient des métadonnées et équilibrage distributionnel

Les métadonnées stock/éditoriales fournissent des descripteurs de sous-groupe et de scène — versions, régions, types de prises de vue — qui permettent un échantillonnage de principe au-delà des tirages uniformes naïfs. Les équipes calculent l’entropie de catégorie et les indices d’inégalité (par ex., Gini) pré/post intégration et rééquilibrent ensuite les minibatches pour augmenter la couverture des catégories et des géographies sous-représentées. Les générateurs synthétiques comblent les lacunes délibérément: Replicator crée des scènes rares et des combinaisons d’objets avec des étiquettes parfaites; Nemotron remplit les espaces d’instruction sous contraintes politiques. Cela déplace la diversité là où elle est importante (conditions de queue longue et sous-groupes critiques pour l’entreprise) plutôt que de provoquer un bruit incontrôlé.

Couverture temporelle pour la vidéo et propagation des étiquettes

La vidéo stock/éditoriale apporte une couverture plus riche des types de prises et de la diversité des scènes, avec des métadonnées qui peuvent être propagées dans les enregistrements d’entraînement. La vidéo synthétique de Replicator renforce les cas limites temporels — motifs de mouvement, occlusions, dangers — tout en maintenant une vérité au sol exacte (par ex., trajectoires, segmentation, profondeur). Le mélange réel et synthétique améliore la généralisation temporelle pour la diffusion vidéo et l’alignement multimodal, surtout lorsque la validation reste strictement sur des données réelles gardées à l’écart. Les mesures temporelles spécifiques dépendent de l’implémentation; les équipes devraient suivre le rappel par scénario, la calibration d’erreur à travers les durées, et les modes d’échec sous occlusion — mesures spécifiques non disponibles.

Pipelines de code conscient de la licence et alignement de benchmark

L’entraînement des modèles de code sur un corpus sélectionné, conscient de la licence (The Stack v2) améliore à la fois la conformité et la couverture du domaine. StarCoder2 démontre des résultats compétitifs sur des tâches de type HumanEval/MBPP au sein de cohortes LLM ouvertes tout en maintenant un filtrage documenté des PII et des malwares. Cette posture est importante pour le déploiement en entreprise: les modèles héritent de contraintes de licence qui peuvent être affichées dans la documentation NIM et appliquées via des politiques, tandis que l’alignement des benchmarks reste intact sans compter sur des grattages indiscriminés.

Livraison par microservice pour une traçabilité et une stabilité de politique

Les microservices NIM emballent les modèles et les garde-fous en points de terminaison répétables pour l’ingestion, l’entraînement, et l’inférence. Cette couche de microservice centralise:

  • Le filtrage de sécurité et l’application de la politique (via NeMo Guardrails),
  • La journalisation et les pistes d’audit pour soutenir la gouvernance d’entreprise,
  • Des mécanismes de déploiement stables qui préservent la lignée des données et des modèles.

La participation à la C2PA complète cela en permettant l’authenticité et les métadonnées de provenance dans les pipelines créatifs, assurant que les consommateurs en aval conservent le contexte sur les artefacts générés par les modèles.

Tableaux de Comparaison

Pipelines de grattage en premier vs. provenance en premier

DimensionBaseline de grattage en premierRedesign de provenance en premier
Traçabilité de la provenanceÉparse, avec perteDroits autorisés avec versions et métadonnées de consentement
Richesse des métadonnéesLégendes/étiquettes incohérentesDescripteurs éditoriaux/stock, démographiques, régions
Exposition PII/NSFWRisque de fuite plus élevéExposition de base plus faible; outils de politique appliqués
Complexité de déduplicationFort chevauchement avec republiConsolidation autour de copies sous licence canoniques
Conformité aux licencesSouvent floueLicences documentées; chemins de retrait
Contrôle d’échantillonnageSignaux de sous-groupe limitésConscient des métadonnées, équilibrage des sous-groupes
Préparation à la gouvernanceAd hocJournalisation de microservices, garde-fous, alignement C2PA
Couverture temporelle/vidéoTypes de prises/scènes inégauxTypes de prises plus riches plus cas limites synthétiques temporels

Techniques de déduplication et où les utiliser

TechniqueMeilleure pourPoints FortsLimitations
Hachage exactFichiers identiques (images/cadres vidéo)Rapide, précisManque redimensionnements/cultures/encodages
Hachage perceptuelImages/vidéo presque doublonsCapture des transformations légèresSeuils ajustables; faux positifs sur des similaires
Recherche ANN presque doublonVoisins en espace d’embeddingS’adapte à des milliards avec indexationComplexité d’infrastructure
MinHash/SimHashTexte/code presque doublonsApproximations Jaccard/Hamming efficacesSensible aux choix de tokenisation et du shingling
Filtres de n-grammeGabarits de texte/codeMise en œuvre simpleGrossier; peut sur-filtrer sans attention

Mélange réel-synthétique par cas d’utilisation

DomaineTendance réel:synthétiqueRationnel
Vision créative (Picasso/Edify)Prédominance réelle; augmentation synthétiqueEsthétique avec droits; le synthétique couvre les styles/objets rares
Vision robotique/industrielle (Omniverse/Isaac Sim)Majorité synthétique dans le finissageCouverture de cas extrêmes, étiquettes parfaites, régénération déterministe
Alignement LLM Texte (Nemotron)Part synthétique en hausseDonnées d’instruction/préférence contraintes par politique sous provenance stricte
Code (StarCoder2 + The Stack v2)Corpus réel, conscient de la licenceConformité aux licences, filtres dé-PII/malwares, couverture linguistique large

Meilleures Pratiques 🔧

  • Ancrez l’ingestion dans des catalogues sous licence et propagez les champs de licence, le consentement des contributeurs, les versions, et les métadonnées régionales/démographiques à travers votre entrepôt de données et les magasins de fonctionnalités. Maintenez des crochets de retrait qui peuvent purger chirurgicalement les exemples d’entraînement et les embeddings associés.
  • Effectuez la déduplication par étapes: d’abord le hachage exact, puis le hachage perceptuel et la recherche ANN pour les presque doublons; pour le texte/code, superposez MinHash/SimHash avec des filtres de n-gramme. Suivez le chevauchement avec les corpus existants et avec les ensembles de test/évaluation pour réduire le risque de mémorisation.
  • Exploitez les métadonnées: calculez l’entropie de catégorie et les indices d’inégalité avant et après la consolidation axée sur la provenance. Utilisez ces signaux pour créer des plannings d’échantillonnage qui pondèrent à la hausse les classes et géographies sous-représentées. Les seuils spécifiques dépendent de la charge de travail; exposez-les comme configuration plutôt que constantes.
  • Traitez le synthétique comme un instrument, pas une béquille: utilisez Replicator et Isaac Sim pour combler les conditions de queue avec des étiquettes parfaites; validez sur des ensembles réels gardés à l’écart pour calibrer le transfert sim2real. Pour l’alignement du texte, générez des données Nemotron sous garde-fous explicites et conservez les journaux de génération pour l’audit.
  • Renforcez les temporals vidéo: stratifiez l’échantillonnage par type de prise de vue, profil de mouvement, et régime d’occlusion. Exploitez la vidéo synthétique pour cibler les modes d’échec (par exemple mouvement rapide, faible luminosité). La propagation des étiquettes doit préserver les métadonnées de version et de scène au niveau du clip et du segment.
  • Renforcez la livraison avec des microservices NIM: centralisez le filtrage de sécurité, l’application de la politique, et la journalisation. Associez-les à NeMo Guardrails pour un comportement cohérent entre l’entraînement et l’inférence, et participez à des cadres d’authenticité (par ex., C2PA) pour transférer la provenance dans les sorties.
  • Mesurez ce qui compte: au-delà des scores de type FID/CLIP, suivez le rappel et la calibration d’erreur dans des conditions rares, les performances OCR dans des dispositions difficiles, et les taux d’erreurs par sous-groupe. Là où les métriques ne sont pas disponibles publiquement, établissez des tableaux de bord internes et des protocoles d’ablation.

Note sur le curriculum: les stratégies de mélange en étape et les plannings de curriculum peuvent aider à augmenter la difficulté ou à ajuster les ratios réel-synthétique au fil du temps, mais les prescriptions spécifiques dépendent de l’implémentation; détails indisponibles.

Effets de Performance Observés

  • Robustesse et rappel de longue queue: Mélanger des données réelles avec droits autorisées avec des données synthétiques ciblées sur le domaine améliore systématiquement la robustesse lorsqu’elles sont validées sur des ensembles de tests réels gardés à l’écart en vision et robotique. Le synthétique offre une diversité contrôlée et des étiquettes parfaites; les données réelles sous licence ancrent le réalisme et la fidélité esthétique. Les équipes rapportent moins de défaillances fragiles sur les conditions météorologiques rares, les dangers de bord, et les cinématiques complexes; pas de mesures numériques spécifiques disponibles.
  • Mémorisation et fuite: La déduplication réduit la mémorisation dans les modèles de langage et s’applique de la même manière dans les pipelines multimodaux. La consolidation autour de copies sous licence réduit la densité de presque-doublons et les fuites toxiques/NSFW par rapport aux grattages ouverts, facilitant les filtres de sécurité en aval et réduisant la régurgitation involontaire de contenu.
  • Calibration et équité: L’échantillonnage conscient des métadonnées et l’évaluation par sous-groupe soutenus par des étiquettes de versions et de régions permettent un meilleur monitoring de la calibration à travers les démographies. Les améliorations sont spécifiques à la charge de travail; les organisations devraient suivre les taux de faux positifs/négatifs et les écarts de calibration par sous-groupe — pas de mesures spécifiques disponibles.
  • Compromis de “biais stock/éditorial”: Bien que les catalogues d’images sélectionnés améliorent l’étiquetage et la gouvernance, ils peuvent sur-représenter les contextes mis en scène ou de haute visibilité. L’augmentation synthétique et l’échantillonnage conscient des métadonnées atténuent ceci en injectant des scénarios quotidiens et rares pour rééquilibrer les distributions.
  • Qualité du code avec conformité: StarCoder2 entraîné sur The Stack v2 maintient des performances compétitives sur les benchmarks de type HumanEval/MBPP au sein des cohortes LLM ouvertes tout en préservant une posture claire de licence et de sécurité. Les entreprises gagnent en auditabilité et réduisent le risque juridique sans sacrifier l’étendue à travers les langues et frameworks.
  • Résultats de l’alignement texte: Les données d’instruction et de préférence générées par Nemotron améliorent le suivi des instructions et réduisent les taux de toxicité/refus dans des évaluations contrôlées. La généralisation multilingue dépend encore de la qualité des données de départ et de l’augmentation soigneuse — pas de métriques trans-langues spécifiques disponibles.

Conclusion

Un redessin axé sur la provenance change la physique de l’entraînement multimodal. Les catalogues d’images/vidéo sous droits fournissent des métadonnées riches et une gouvernance; les corpus de code conscients des licences améliorent la conformité; Replicator et Isaac Sim élargissent la couverture de queue avec des étiquettes parfaites; Nemotron fournit des données d’alignement constraintes par des politiques; NIM et Guardrails enveloppent la pile dans une instrumentation de sécurité répétable. La déduplication et l’échantillonnage conscient des métadonnées réduisent la mémorisation et calibrent les distributions. L’effet net est une pile mieux adaptée aux exigences des entreprises pour l’auditabilité, la stabilité, et l’équité — sans abandonner la performance.

flowchart TD;
 A["Redessin axé sur la provenance"] --> B["Catalogues d'images/vidéo sous droits"];
 A --> C["Corpus de code conscient de la licence"];
 A --> D["Replicator et Isaac Sim"];
 A --> E["Nemotron"];
 A --> F["NIM et Guardrails"];
 B --> G["Déduplication et échantillonnage conscient des métadonnées"];
 F --> H["Caractéristiques de la pile: auditabilité, stabilité, équité"];
 G --> H;

Ce diagramme illustre les processus impliqués dans un redessin axé sur la provenance qui améliore l’entraînement multimodal à travers divers composants et leurs contributions à la conformité et à la gouvernance.

Points clés à retenir:

  • Remplacez l’ingestion de grattage en premier par des catalogues sous licence, riches en métadonnées et propagez les signaux de licence de bout en bout.
  • Combinez le hachage exact/perceptuel et les familles MinHash pour réduire les doublons et le risque de mémorisation à grande échelle.
  • Utilisez la génération synthétique de manière chirurgicale pour combler les scénarios de queue; validez toujours sur des données réelles gardées à l’écart.
  • Faites des métadonnées de sous-groupe et temporelles des citoyens de première classe dans l’échantillonnage et l’évaluation.
  • Livrez les modèles en tant que microservices avec garde-fous intégrés, journalisation, et provenance, et alignez-les avec des cadres d’authenticité.

Étapes suivantes actionnables:

  • Inventoriez vos corpus d’entraînement par modalité et calculez l’entropie de catégorie et les indices de Gini avant/après avoir intégré des sources sous licence.
  • Mettez en place un pipeline de déduplication à travers images/vidéo/texte/code avec des seuils en étapes et des rapports de chevauchement contre les ensembles de test.
  • Établissez des études d’ablation réel:synthétique pour chaque charge de travail, documentant les performances sous des conditions rares et la calibration à travers les sous-groupes.
  • Activez les microservices NIM avec NeMo Guardrails dans les environnements d’entraînement et d’inférence, et adoptez la C2PA pour les sorties créatives.

Regardant vers l’avant, les pipelines de provenance en premier ne feront que gagner en importance à mesure que les obligations de divulgation se durcissent et que les modèles multimodaux pénètrent plus profondément dans les domaines de sécurité critique. Les équipes qui intégreront aujourd’hui la provenance, la déduplication, et le contrôle synthétique dans leurs fondations posséderont demain les courbes de fiabilité et de conformité.

Sources & Références

www.nvidia.com
NVIDIA Picasso (Generative AI for Visual Design) Documents enterprise-grade visual generative endpoints and integration of rights-cleared content sources that underpin provenance-first ingestion for images, video, and 3D.
www.gettyimages.com
Getty Images – Generative AI by Getty Images (Built with NVIDIA) Confirms rights-cleared, contributor-consented visual assets integrated with NVIDIA tooling, supporting provenance, releases, and indemnification flows.
developer.nvidia.com
NVIDIA Developer – NIM Microservices Overview Supports the microservice delivery model for traceability, safety filtering, and policy-stable deployment across modalities.
huggingface.co
Hugging Face Blog – StarCoder2 Describes StarCoder2 training and performance posture, aligning code models with a license-aware dataset and enterprise usage.
huggingface.co
BigCode – The Stack v2 Dataset Card Details a curated, de-PII’d, license-aware code corpus with malware filtering that underlies license-aware code pipelines.
github.com
NeMo Guardrails (GitHub) Provides the safety and policy enforcement layer referenced for training and inference governance.
developer.nvidia.com
NVIDIA Omniverse Replicator Supports large-scale synthetic generation for vision/3D/video with domain randomization and perfect labels for tail coverage.
www.nvidia.com
NVIDIA Nemotron Overview Describes synthetic instruction and preference data generation used to augment text/code alignment under traceable policies.
laion.ai
LAION‑5B (Dataset and Paper) Represents the open-web scrape baseline for vision, providing contrast with provenance-first licensed ingestion.
arxiv.org
Deduplicating Training Data Makes Language Models Better (Lee et al.) Establishes that deduplication reduces memorization and improves generalization, motivating large-scale dedup in provenance-first pipelines.
www.europarl.europa.eu
European Parliament – AI Act Approved Frames regulatory pressure for transparent training-data summaries, reinforcing the importance of provenance-first design.
c2pa.org
C2PA – Members Supports the use of authenticity/provenance metadata frameworks in creative pipelines linked to licensed and synthetic content.
developer.nvidia.com
NVIDIA Isaac Sim Supports synthetic data generation for robotics/industrial vision with controllable scenarios and perfect labels.
press.gettyimages.com
Getty Images – Legal Action Against Stability AI Provides context for heightened legal scrutiny around unlicensed training, underscoring the pivot to licensed, provenance-first ingestion.

Advertisement