Apache Hadoop is the most popular framework for processing Big Data on clusters of servers.
Sinoptic Apache Hadoop este cel mai popular cadru pentru procesarea Big Data pe clustere de servere.
Cloudera Certified Administrator for Apache Hadoop.
Administrator certificat Cloudera pentru Apache Hadoop CCAH.
Apache Hadoop is one of the most popular frameworks for processing Big Data on clusters of servers.
Apache Hadoop este unul dintre cele mai populare cadre pentru procesarea Big Data pe clustere de servere.
MapReduce is the main batch processing framework from Apache Hadoop project.
MapReduce este principala tehnologie de procesare de date de volum mare a proiectului Apache Hadoop.
Course: Administrator Training for Apache Hadoop Liked very much the interactive way of learning.
Curs: Administrator Training for Apache Hadoop Machine Translated Îi plăcea foarte mult modul interactiv de învățare.
The apache pig aids the scripting of the dialect utilized as a part of apache Hadoop.
Apache porcul ajută la scrierea dialectului folosit ca parte a lui Apache Hadoop.
Apache Flink was developed to work with Apache Hadoop and comes with Java and Scala bindings.
Apache Flink a fost dezvoltat pentru a lucra cu Apache Hadoop și vine cu legaturi Java și Scala.
He also designed andimplemented one of the two core schedulers used in Apache Hadoop.[5].
De asemenea, a conceput șirealizat unul dintre cele două programatoare centrale utilizate în Apache Hadoop[2].
This Dell Apache Hadoop Solution gives you a one-stop shop for deploying, managing and scaling a Hadoop cluster.
Această soluţie Dell Apache Hadoop vă pune la dispoziţie un punct unic pentru implementarea, administrarea şi scalarea unui cluster Hadoop..
In 2006, Dug Cutting succeeded to implement this concept and put it into an Apache project,namely Apache Hadoop.
În 2006, Dug Cutting a reușit să implementeze acest concept și să îl includă într-un proiect Apache,mai exact în Apache Hadoop.
Apache Hadoop is a framework facilitating processing of large(and very large) data sets, running on an array of machines and using a simple programming model(map/reduce paradigm).
Apache Hadoop este un framework care facilitează procesarea unor seturi de date mari și foarte mari, pe mai multe calculatoare folosind un model de programare simplu: paradigma map/reduce.
Apache Parquet is a"columnar" data storage format that was specifically created for the Apache Hadoop family of projects.
Apache Parchet este un format de stocare a datelor"columnare", care a fost creat special pentru Apache Hadoop familie de proiecte.
Course: Administrator Training for Apache Hadoop It was very hands-on, we spent half the time actually doing things in Clouded/Hardtop, running different commands, checking the system, and so on.
Curs: Administrator Training for Apache Hadoop Machine Translated A fost foarte practic, am petrecut jumătate din timp făcând lucruri în Clouded/ Hardtop, executând comenzi diferite, verificând sistemul și așa mai departe.
The Hadoop biological system is additionally canvassed in awesome detail to acclimate members with Apache Hadoop stage for Big Data Analytics.
Sistemul biologic Hadoop este adunat în detalii minunate pentru a acomoda membrii cu scena Apache Hadoop pentru Big Data Analytics.
Overview Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components(HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.
Overview Apache Hadoop este cel mai popular cadru pentru procesarea datelor mari pe clustere de servere Acest curs va introduce un dezvoltator pentru diverse componente(HDFS, MapReduce, Pig, Hive și HBase) ecosistemul Hadoop..
Apache Ambari is an open-source management platform for provisioning, managing,monitoring and securing Apache Hadoop clusters.
Apache Ambari este o platformă de management open-source pentru aprovizionare, gestionare, monitorizare șisecurizare a clusterelor Apache Hadoop.
Local, instructor-led live Apache Hadoop training courses demonstrate through interactive hands-on practice the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems.
Cursuri Hadoop Programele de pregătire locală, instruite de instructori Apache Hadoop demonstrează prin practica interactivă practica principalele componente ale ecosistemului Hadoop și modul în care aceste tehnologii pot fi utilizate pentru a rezolva probleme la scară largă.
In line with our announcement in October at the PASS conference,we will focus our effort on bringing Apache Hadoop to both Windows Server and Microsoft Azure.
Cu nostru anunţul în octombrie la Conferinţa trece,ne vom concentra efortul nostru aducerea Apache Hadoop atât Windows Server şi Microsoft Azure.
This training course is designed to help you clear both Cloudera Spark and Hadoop Developer Certification(CCA175) exam andCloudera Certified Administrator for Apache Hadoop(CCAH) exam.
Acest curs de formare este conceput pentru a vă ajuta să eliminați ambele Cloudera Spark și certificarea Hadoop pentru dezvoltatori(CCA175) examen șiAdministrator certificat Cloudera pentru Apache Hadoop(CCAH) examen.
Apache HBase was modeled after Google's internal BigTable database system andwas built atop the famous Apache Hadoop data processing framework and distributed computing engine.
Apache HBase a fost modelat după sistemul intern de baze de date Bigtable Google șia fost construit deasupra celebrului Apache Hadoop cadru de prelucrare a datelor și distribuite motorului de calcul.
SystemML provides declarative large-scale machine learning(ML) that aims at flexible specification of ML algorithms and automatic generation of hybrid runtime plans ranging from single node, in-memory computations,to distributed computations on Apache Hadoop and Apache Spark.
SystemML oferă învățare automată declarativă la nivel de mașină(ML), care urmărește specificarea flexibilă a algoritmilor ML și generarea automată a planurilor hibride de rulare, de la un singur nod, la calculul în memorie, pânăla calcule distribuite pe Apache Hadoop și Apache Spark.
Apache Samza is an open-source near-realtime,asynchronous computational framework for stream processing. It uses Apache Kafka for messaging, and Apache Hadoop YARN for fault tolerance, processor isolation, security, and resource management.
Sinoptic Apache Samza este un cadru de calcul asincron, asincron,în timp real, open source Utilizează Apache Kafka pentru mesagerie și Apache Hadoop YARN pentru toleranță la erori, izolarea procesorului, securitate și gestionarea resurselor.
Română
Български
عربى
বাংলা
Český
Dansk
Deutsch
Ελληνικά
Español
Suomi
Français
עִברִית
हिंदी
Hrvatski
Magyar
Bahasa indonesia
Italiano
日本語
Қазақ
한국어
മലയാളം
मराठी
Bahasa malay
Nederlands
Norsk
Polski
Português
Русский
Slovenský
Slovenski
Српски
Svenska
தமிழ்
తెలుగు
ไทย
Tagalog
Turkce
Українська
اردو
Tiếng việt
中文