Sinoptic Apache Hadoop este cel mai popular cadru pentru procesarea Big Data pe clustere de servere.
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers.
MapReduce este principala tehnologie de procesare de date de volum mare a proiectului Apache Hadoop.
MapReduce is the main batch processing framework from Apache Hadoop project.
Apache Hadoop este unul dintre cele mai populare cadre pentru procesarea Big Data pe clustere de servere.
Apache Hadoop is one of the most popular frameworks for processing Big Data on clusters of servers.
Apache porcul ajută la scrierea dialectului folosit ca parte a lui Apache Hadoop.
The apache pig aids the scripting of the dialect utilized as a part of apache Hadoop.
Apache Flink a fost dezvoltat pentru a lucra cu Apache Hadoop și vine cu legaturi Java și Scala.
Apache Flink was developed to work with Apache Hadoop and comes with Java and Scala bindings.
În 2006, Dug Cutting a reușit să implementeze acest concept și să îl includă într-un proiect Apache,mai exact în Apache Hadoop.
In 2006, Dug Cutting succeeded to implement this concept and put it into an Apache project,namely Apache Hadoop.
Curs: Administrator Training for Apache Hadoop Machine Translated Îi plăcea foarte mult modul interactiv de învățare.
Course: Administrator Training for Apache Hadoop Liked very much the interactive way of learning.
Apache Accumulo este un mashup de tehnologii diferite,de la Google Bigtable, a Apache Hadoop, Thrift și Zookeeper.
Apache Accumulo is a mashup of various technologies,from Google's BigTable, to Apache's Hadoop, Thrift and Zookeeper.
Această soluţie Dell Apache Hadoop vă pune la dispoziţie un punct unic pentru implementarea, administrarea şi scalarea unui cluster Hadoop..
This Dell Apache Hadoop Solution gives you a one-stop shop for deploying, managing and scaling a Hadoop cluster.
Apache Parchet este un format de stocare a datelor"columnare", care a fost creat special pentru Apache Hadoop familie de proiecte.
Apache Parquet is a"columnar" data storage format that was specifically created for the Apache Hadoop family of projects.
Apache Hadoop este un framework care facilitează procesarea unor seturi de date mari și foarte mari, pe mai multe calculatoare folosind un model de programare simplu: paradigma map/reduce.
Apache Hadoop is a framework facilitating processing of large(and very large) data sets, running on an array of machines and using a simple programming model(map/reduce paradigm).
Sistemul biologic Hadoop este adunat în detalii minunate pentru a acomoda membrii cu scena Apache Hadoop pentru Big Data Analytics.
The Hadoop biological system is additionally canvassed in awesome detail to acclimate members with Apache Hadoop stage for Big Data Analytics.
Curs: Administrator Training for Apache Hadoop Machine Translated A fost foarte practic, am petrecut jumătate din timp făcând lucruri în Clouded/ Hardtop, executând comenzi diferite, verificând sistemul și așa mai departe.
Course: Administrator Training for Apache Hadoop It was very hands-on, we spent half the time actually doing things in Clouded/Hardtop, running different commands, checking the system, and so on.
Apache Ambari este o platformă de management open-source pentru aprovizionare, gestionare, monitorizare șisecurizare a clusterelor Apache Hadoop.
Apache Ambari is an open-source management platform for provisioning, managing,monitoring and securing Apache Hadoop clusters.
Apache HBase a fost modelat după sistemul intern de baze de date Bigtable Google șia fost construit deasupra celebrului Apache Hadoop cadru de prelucrare a datelor și distribuite motorului de calcul.
Apache HBase was modeled after Google's internalBigTable database system and was built atop the famous Apache Hadoop data processing framework and distributed computing engine.
Overview Apache Hadoop este cel mai popular cadru pentru procesarea datelor mari pe clustere de servere Acest curs va introduce un dezvoltator pentru diverse componente(HDFS, MapReduce, Pig, Hive și HBase) ecosistemul Hadoop..
Overview Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components(HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.
Cu nostru anunţul în octombrie la Conferinţa trece,ne vom concentra efortul nostru aducerea Apache Hadoop atât Windows Server şi Microsoft Azure.
In line with our announcement in October at the PASS conference,we will focus our effort on bringing Apache Hadoop to both Windows Server and Microsoft Azure.
Cursuri Hadoop Programele de pregătire locală, instruite de instructori Apache Hadoop demonstrează prin practica interactivă practica principalele componente ale ecosistemului Hadoop și modul în care aceste tehnologii pot fi utilizate pentru a rezolva probleme la scară largă.
Local, instructor-led live Apache Hadoop training courses demonstrate through interactive hands-on practice the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems.
Acest curs de formare este conceput pentru a vă ajuta să eliminați ambele Cloudera Spark și certificarea Hadoop pentru dezvoltatori(CCA175) examen șiAdministrator certificat Cloudera pentru Apache Hadoop(CCAH) examen.
This training course is designed to help you clear both Cloudera Spark and Hadoop Developer Certification(CCA175) exam andCloudera Certified Administrator for Apache Hadoop(CCAH) exam.
Sinoptic Apache Samza este un cadru de calcul asincron, asincron,în timp real, open source Utilizează Apache Kafka pentru mesagerie și Apache Hadoop YARN pentru toleranță la erori, izolarea procesorului, securitate și gestionarea resurselor.
Apache Samza is an open-source near-realtime,asynchronous computational framework for stream processing. It uses Apache Kafka for messaging, and Apache Hadoop YARN for fault tolerance, processor isolation, security, and resource management.
SystemML oferă învățare automată declarativă la nivel de mașină(ML), care urmărește specificarea flexibilă a algoritmilor ML și generarea automată a planurilor hibride de rulare, de la un singur nod, la calculul în memorie, pânăla calcule distribuite pe Apache Hadoop și Apache Spark.
SystemML provides declarative large-scale machine learning(ML) that aims at flexible specification of ML algorithms and automatic generation of hybrid runtime plans ranging from single node, in-memory computations,to distributed computations on Apache Hadoop and Apache Spark.
English
Български
عربى
বাংলা
Český
Dansk
Deutsch
Ελληνικά
Español
Suomi
Français
עִברִית
हिंदी
Hrvatski
Magyar
Bahasa indonesia
Italiano
日本語
Қазақ
한국어
മലയാളം
मराठी
Bahasa malay
Nederlands
Norsk
Polski
Português
Русский
Slovenský
Slovenski
Српски
Svenska
தமிழ்
తెలుగు
ไทย
Tagalog
Turkce
Українська
اردو
Tiếng việt
中文