Exemples d'utilisation de Data pipeline en Français et leurs traductions en Anglais
{-}
-
Colloquial
-
Official
AWS Data Pipeline gère.
Intégration d'AWS Data Pipeline.
AWS Data Pipeline ajouté en juin 2015.
Intégration d'AWS Data Pipeline.
Version AWS Data Pipeline utilisée pour créer l'objet.
Combinations with other parts of speech
Utilisation avec des noms
lettre datéebig dataune lettre datéele big datanote verbale datéedata centers
data recovery
data science
la lettre datéesecrétaire général daté
Plus
Utilisation avec des adverbes
non datépeu datéavec datadatant probablement
comment le big dataferme datantci-joint une lettre datéetrès datédatent également
légèrement daté
Plus
Utilisation avec des verbes
Ouvrez la console Data Pipeline.
Ressource qu'AWS Data Pipeline utilise pour effectuer cette activité.
Actions définies par Data Pipeline.
Description détaillée d'AWS Data Pipeline.
J'ai reçu l'erreur Data Pipeline« La ressource a été interrompue.
Ouvrez la console AWS Data Pipeline.
Activité qu'AWS Data Pipeline exécute pour le pipeline. .
Stratégies IAM pour AWS Data Pipeline.
Autorisations AWS Data Pipeline pour exporter et importer les données DynamoDB.
Premiers pas avec AWS Data Pipeline.
AWS Data Pipeline est le composant qui permet de traiter et de transférer des données entre différents services AWS.
Mise en route avec AWS Data Pipeline.
Les modèles fournissent des scénarios courants rencontrés dans AWS Data Pipeline.
Modèles prédéfinis pour AWS Data Pipeline et DynamoDB.
Mise à jour des rôles IAM existants pour AWS Data Pipeline.
Exemples de stratégies pour AWS Data Pipeline.
Création de rôles IAM pour AWS Data Pipeline.
Il existe également des frais pour AWS Data Pipeline.
Propriété PipelineObject pour AWS Data Pipeline.
Exemple de demande et de réponse JSON AWS Data Pipeline.
Pour plus d'informations,consultez Accès à AWS Data Pipeline.
Dans l'entité de confiance AWS Service,choisissez Data Pipeline.
Version initiale du Manuel du développeur AWS Data Pipeline.
Effectuez les tâches définies dans Configuration d'AWS Data Pipeline.