Les méthodes d'intégration standard prêtes à l'emploi permettent d'importer et d'exporter périodiquement de grands volumes de données en vrac, comme l'importation de grands ensembles de données provenant de fournisseurs et l'exportation de grands ensembles de données vers des systèmes ERP et de commerce électronique. Ces intégrations standard basées sur des messages sont asynchrones et peuvent gérer n'importe quel format ou structure de données, y compris XML, CSV, Excel, JSON, BMECat et ARTMAS.
Les récepteurs et les connecteurs de livraison compatibles comprennent, sans s'y limiter, les éléments suivants : Hotfolders, (s)FTP, JMS, HTTP POST, JDBC, MongoDB, Amazon SQS, Kafka et Cloud storage.
Vous pouvez choisir d'activer les exportations de données incrémentielles automatiquement ou manuellement et inclure des options de configuration avancées telles que des règles métier, des pré-processeurs, des post-processeurs, le filtrage d'événements, la génération et la mise en lots. Pour faciliter encore les choses, les systèmes externes et les intergiciels ne nécessitent pas de mappage et de transformation des données, ni de connaissances sur les modèles de données spécifiques au client de la plate-forme ou sur le format XML natif.
Les processus de synchronisation automatisés éliminent les erreurs manuelles et font gagner du temps, ce qui permet des mises à jour de données synchrones à la demande entre les plateformes. Les API de services web multidomaines complètent les points d'extrémité d'intégration standard et sont souvent utilisés dans ces situations, où de plus petits volumes de données, comme les récupérations de numéros EAN, sont relayés en temps réel. Les intégrations synchrones sont conformes aux appels d'API REST de la plateforme et aux possibilités d'interrogation et de mutation GraphQL.
Les intégrations asynchrones sont courantes dans la messagerie d'entreprise, y compris les initiatives d'intégration à grande échelle, la publication de données en vrac dans différents formats et le mappage et la transformation de données vers et à partir de modèles de données spécifiques au client.