Examples of using Amazon redshift in German and their translations into English
{-}
-
Colloquial
-
Official
-
Ecclesiastic
-
Medicine
-
Financial
-
Ecclesiastic
-
Political
-
Computer
-
Programming
-
Official/political
-
Political
Kopieren von Daten zu Amazon Redshift über die AWS Data Pipeline-Konsole.
Weitere Informationen zu Preisen finden Sie auf der Seite Amazon Redshift- Preise.
Dmg von der Seite Amazon Redshift auf der Dokumentationsseite von Amazon herunter.
Weitere Informationen finden Sie unter Definieren von Abfragewarteschlangen im Amazon Redshift Database Developer Guide.
Weitere Informationen finden Sie im Amazon Redshift Cluster Management Guide unter Konfigurieren von Sicherheitsoptionen für Verbindungen.
Combinations with other parts of speech
Usage with adjectives
More
Weitere Informationen finden Sie unter Freigeben eines Snapshots im Amazon Redshift Cluster Management Guide.
Konfiguriert den Amazon Redshift COPY -Befehl, den Kinesis Data Firehose verwendet, um Daten in den Cluster aus dem Amazon S3-Bucket zu laden.
Nutzungshinweise zum Erstellen von Tabellen im Amazon Redshift Database Developer Guide.
Der Schlüsselbenutzer erteilt Amazon Redshift implizit die Berechtigung, den CMK zu verwenden, um den verschlüsselten Cluster zu starten und verschlüsselte Snapshots zu erstellen.
Weitere Informationen finden Sie unter Aktualisieren und Einfügen von neuen Daten im Amazon Redshift Database Developer Guide.
Weitere Informationen über die Syntax finden Sie im Amazon Redshift Cluster Management Guide unter Die Verbindung wird zurückgewiesen oder schlägt fehl.
Weitere Informationen finden Sie unter Herstellen von Verbindungen mit einem Cluster im Amazon Redshift Cluster Management Guide.
Amazon Redshift kann als Single-Node-Cluster mit einem Server und maximal 2 TByte Speicherplatz oder als Multi-Node-Cluster, der aus mindestens zwei Compute-Nodes und einem Leader-Node besteht, genutzt werden.
Weitere Informationen finden Sie unter Verbindung wird zurückgewiesen oder schlägt fehl im Amazon Redshift Database Developer Guide.
In einigen Fällen, wenn die Verbindung zu Amazon Redshift, verwenden ein berechnetes Feld mit der Funktion DATEDIFF ergibt ein Fehler: ungültig Vorgang: Overflow oder Unterlauf für DATEPART/EXTRAKT'Epoche.
Weitere Informationen über das Erstellen von Clustern finden Sie unter Erstellen eines Clusters im Amazon Redshift Cluster Management Guide.
Mit den von CloudTrail gesammelten Informationen können Sie die an Amazon Redshift gestellte Anfrage, die IP-Adresse, von der die Anfrage gestellt wurde, den Initiator der Anfrage, den Zeitpunkt der Anfrage und weitere Angaben bestimmen.
Weitere Informationen zum Protokollieren zu Systemtabellen finden Sie in der Systemtabellenreferenz im Amazon Redshift Database Developer Guide.
Wenn beispielsweise Amazon Redshift AWS Key Management Service(AWS KMS)-Aktionen wie CreateGrant, Decrypt, Encrypt und RetireGrant aufruft, um die Verschlüsselung für Ihren Cluster zu verwalten, werden die Aufrufe von AWS CloudTrail mittels einer Amazon Redshift-Konto-ID protokolliert.
Rufen Sie die Seite Configure a JDBC Connection auf und laden Sie einen JDBC-Treiber für Amazon Redshift herunter, damit SQL Workbench/J eine Verbindung zum Cluster herstellen kann.
Weitere Informationen über das Festlegen der MTU-Größe auf Microsoft Windows-, Linux- und macOS-Betriebssystemen finden Sie unter Abfragen scheinen zu hängen underreichen manchmal den Cluster nicht im Amazon Redshift Cluster Management Guide.
Er ermöglicht eine unmittelbare Integration in Amazon Simple Storage Service(Amazon S3),Amazon Relational Database Service(Amazon RDS), Amazon Redshift, Amazon Redshift Spectrum, Athena,Amazon EMR und alle anderen Anwendungen, die mit dem Apache Hive-Metastore kompatibel sind.
Wenn Sie mit Athena Datenbanken und Tabellen in einer Region erstellt haben, ehe AWS Glue dort verfügbar war, sind die Metadaten in einem von Athena verwalteten Datenkatalog gespeichert,auf den nur Athena und Amazon Redshift Spectrum zugreifen können.
In diesem Tutorial erfahren Sie, wie Sie eine Pipeline erstellen,mit der Sie regelmäßig Daten von Amazon S3 zu Amazon Redshift verschieben können- entweder über die Vorlage Copy to Redshift in der AWS Data Pipeline-Konsole oder mit einer Pipeline-Definitionsdatei über die AWS Data Pipeline-Befehlszeile.
Referenzarchitektur, die mithilfe eines AWS CloudFormation-Templates automatisiert wurde und AWS-Services wie Amazon Simple Storage Service(Amazon S3),Amazon Elastic Compute Cloud(Amazon EC2) und Amazon Redshift integriert.
Verknüpfte EC2-Classic-Instances können die folgenden AWS-Dienste in der VPC aufrufen: Amazon Redshift, Amazon ElastiCache, Elastic Load Balancing und Amazon RDS.
So können Kunden umgehend ein neues Data Warehouse-Projekt mit Amazon Redshift starten und mit dem Informatica Cloud-Konnektor für Amazon Redshift relevante, miteinander verknüpfte Daten aus cloudbasierten Quellen wie Salesforce.com oder standortgebundenen Datenquellen wie relationalen Datenbanken in das betreffende Data Warehouse laden.
Sie können beispielsweise einigen Benutzern vollständigen Zugriff auf Amazon Elastic Compute Cloud(Amazon EC2), Amazon Simple Storage Service(Amazon S3),Amazon DynamoDB, Amazon Redshift und andere AWS-Services gewähren.
Die per Download verfügbare Lösung automatisiert über ihre Quick Start-Funktion den Aufbau von Data Lake-Umgebungen durch Einsatz von Talend Big Data Integrationskomponentensowie durch AWS-Dienste wie Amazon EMR, Amazon Redshift, Amazon Simple Storage Service(Amazon S3) und Amazon Relational Database Service Amazon RDS.
Nachdem Talend bereits als AWS Big Data Competency Partner zertifiziert war, unterstreicht das Erreichen dieser neuen Partnerschaftsebene im APN die Ernsthaftigkeit der Absichten von Talend,robuste Unterstützung für die gesamte Palette der AWS-Produkte- Amazon Redshift, Amazon Elastic MapReduce(Amazon EMR),Amazon Simple Storage Service(Amazon S3), Amazon Kinesis und Amazon Aurora- anzubieten.