What is the translation of " MAPREDUCE " in English?

Examples of using Mapreduce in Indonesian and their translations into English

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Ecclesiastic category close
Terutama berlaku untuk operasi MapReduce.
This particularly applies to MapReduce operations.
Amazon Web Services Elastic MapReduce adalah salah satu contoh dari layanan Big Data di cloud publik.
Amazon Web Services Elastic MapReduceis one example of big data services in a public cloud.
Alat utama lain Hadoop kerangka adalah mesin MapReduce.
Hadoop's other key element is the MapReduce software.
Hadoop menggunakan konsep teknologi Google MapReduce dan Google File System( GFS) sebagai dasar pembangunanya.
Hadoop uses Google's Map-Reduce and GoogleFileSystem(GFS) technologies as its foundation.
Di tempat MapReduce, Google menggunakan dua proyek lainnya, Flume dan MillWheel, yang tampaknya dipengaruhi desain Dataflow itu.
In place of MapReduce, Google uses two other projects, Flume and MillWheel, that apparently influenced Dataflow's design.
Paling menonjol, Cloud Dataflow disebut-sebut sebagai unggul MapReduce dalam jumlah data yang dapat diproses secara efisien.
Most prominent, Cloud Dataflow is touted as superior to MapReduce in the amount of data that can be processed efficiently.
Baer sependapat:" Dari kelihatannya, Google Cloud Dataflow tampaknya memiliki kemiripan dengan Spark,yang juga memanfaatkan memori dan menghindari overhead MapReduce.".
Baer concurs:"From the looks of it, Google Cloud Dataflow seems to have a resemblance to Spark,which also leverages memory and avoids the overhead of MapReduce.".
Hölzle mengklaim kinerja yang buruk MapReduce dimulai setelah jumlah data mencapai kisaran multipetabyte.
Hölzle claimed MapReduce's poor performance began once the amount of data reached the multipetabyte range.
Untuk perspektif, mengklaim Facebook pada tahun 2012 itu memiliki 100- petabyte Hadoop klaster, meskipun perusahaan tidak masuk kedetail tentang berapa banyak modifikasi kustom yang digunakan atau bahkan jika MapReduce itu sendiri masih beroperasi.
For perspective, Facebook claimed in 2012 it had a 100-petabyte Hadoop cluster, although the company did not go intodetail about how much custom modification was used or even if MapReduce itself was still in operation.
Tez meningkatkan kecepatan secara dramatis pada MapReduce, dengan mempertahankan kemampuan MapReduce untuk memproses data berskala petabytes.
Tez improves the MapReduce paradigm by dramatically improving its speed,while maintaining MapReduce's ability to scale to petabytes of data.
MapReduce menyediakan metode baru menganalisis data yang komplementer untuk kemampuan yang disediakan oleh SQL, dan sistem yang didasarkan pada MapReduce yang dapat ditingkatkan dari satu server ke ribuan tinggi dan rendah mesin akhir.
MapReduce provides a new method of analyzing data that is complementary to the capabilities provided by SQL, and a system based on MapReduce that can be scaled up from single servers to thousands of high and low end machines.
Studi kasus akan sampai pada Anda pada akhir kursus dan Anda akan menggunakan kerangka pasir arsitektur seperti HIVE,PIG, MapReduce dan HBase untuk melakukan analisis pada Data Besar secara real time.
Case studies will come to you at the end of the course and you will be using architecture sand frameworks like HIVE,PIG, MapReduce and HBase for performing analytics on the Big Data in real time.
Pemgrograman MapReduce dapat digunakan karena memiliki akses ke barbagai sumber data dan dapat beroperasi pada jenis data terstruktur maupun tidak terstruktur.
Business organizations can make use of Hadoop MapReduce programming to have access to various new sources of data and also operate on the types of data, whether they are structured or unstructured.
Di antara fitur-fiturnya adalah file browser untuk HDFS, Aplikasi Oozie untuk membuat workflow dan koordinator,job desainer/ browser untuk MapReduce, Hive dan Impala user interface, sebuah Shell, sekumpulan API Hadoop, dan lain sebagainya.
It features a file browser for HDFS, an Oozie Application for creating workflows and coordinators,a job designer/browser for MapReduce, a Hive and Impala UI, a Shell, a collection of Hadoop API and more.
Apache Phoenix memungkinkan OLTP berbasis SQL dan analytics operasional untuk Apache Hadoop menggunakan Apache HBase sebagai penyimpanan, dan menyediakan integrasi dengan ekosistem Apache lain seperti Spark, Hive, Pig,Flume, dan MapReduce.
Apache Phoenix enables SQL-based OLTP and operational analytics for Apache Hadoop using Apache HBase as its backing store and providing integration with other projects in the Apache ecosystem such as Spark, Hive, Pig,Flume, and MapReduce.
Informasi representasi impor, MapReduce dan Parallel Processing dapat dilakukan dengan sebaik-baiknya, sebagai akibat dari mana tahap penyidikan yang dimasukkan harus terus didesain ulang, yang sekali lagi dibuat kurang menuntut oleh mereka.
Information import representation, MapReduce and Parallel Processing can be best accomplished with them, as an aftereffect of which the incorporated investigation stages must be continually redesigned, which is again made less demanding by them.
Perusahaan menggunakan Amazon Athena untuk kueri bebas server dari data Amazon S3 dan menggabungkan teknologi cloud tingkat lanjut ke dalam platform analitik big-data mereka,menggunakan layanan AWS termasuk Amazon Elastic MapReduce, AWS Lambda, dan Amazon Machine Learning.
The company uses Amazon Athena for serverless querying of Amazon S3 data and incorporates advanced cloud technology into its big-data analytics platform,using AWS services including Amazon Elastic MapReduce, AWS Lambda, and Amazon Machine Learning.
Awalnya dikembangkan oleh Google, website MapReduce menggambarkannya sebagai" model pemrograman dan kerangka kerja perangkat lunak untuk menulis aplikasi yang cepat dalam memproses data dalam jumlah besar secara paralel pada kelompok besar dari node komputasi.".
Originally developed by Google, the MapReduce website describes it as"a programming model and software framework for writing applications that rapidly process vast amounts of data in parallel on large clusters of compute nodes.".
Analisis data yang besar sering dikaitkan dengan komputasi awan karena analisis data set besar dalam real-time membutuhkan platform seperti Hadoop untuk menyimpan kumpulan BigData di cluster yang di distribusikan dan MapReduce untuk mengkoordinasikan, menggabungkan dan mengolah data dari berbagai sumber.
Big data analytics is often associated with cloud computing since the analysis of large data sets in real-time requires a platform like Hadoop to storelarge data sets across a distributed clusters and MapReduce to coordinate, combine and process data from multiple sources.
MapReduce pada awalnya dikembangkan oleh Google dan kemudian open-source, tetapi Urs Hölzle, wakil presiden senior dari infrastruktur teknis, menyatakan di Google I/ O keynote pada hari Rabu bahwa" kita[ at Google] tidak benar-benar menggunakan MapReduce lagi.".
MapReduce was originally developed by Google and later open-sourced, but Urs Hölzle, senior vice president of technical infrastructure, declared in the Google I/O keynote on Wednesday that"we[at Google] don't really use MapReduce anymore.".
Dalam konteks Plasma, databasetersebut adalah blockchain dan struktur berbentuk pohon inilah yang mengizinkan MapReduce untuk dapat diaplikasikan sebagai sebuah cara untuk memfasilitasi verifikasi data dalam rantai pohon, yang dapat meningkatkan efisiensi jaringan secara besar.
In the context of Plasma,these databases are blockchains and the tree-like structure of the chains allows for MapReduce to be applied as a way to facilitate the verification of the data within the tree of chains, which greatly increases the efficiency of the network.
Konsultan digital terbaik2 MapReduce Aplikasi Pemroses Data Awalnya dikembangkan oleh Google, website MapReduce menggambarkannya sebagai model pemrograman dan kerangka kerja perangkat lunak untuk menulis aplikasi yang cepat dalam memproses data dalam jumlah besar secara paralel pada kelompok besar dari node komputasi.
Originally developed by Google, the MapReduce website describe it as“a programming model and software framework for writing applications that rapidly process vast amounts of data in parallel on large clusters of compute nodes.”.
Analisis big data sering dikaitkan dengan komputasi cloud karena analisis data yang besar diatur secara real-time membutuhkan platform seperti Hadoop untukmenyimpan kumpulan data besar di cluster didistribusikan dan MapReduce untuk mengkoordinasikan, menggabungkan dan mengolah data dari berbagai sumber.
Big data analytics is often associated with cloud computing because the analysis of large data sets in real-time requires a platform like Hadoop to storelarge data sets across a distributed cluster and MapReduce to coordinate, combine and process data from multiple sources.
Dimana pengolahan data sekali besar itu praktis identik dengan MapReduce," katanya dalam sebuah email," Anda sekarang melihat kerangka seperti Spark, Storm, Giraph, dan lain-lain menyediakan alternatif yang memungkinkan Anda untuk memilih pendekatan yang tepat untuk masalah analitik.".
Where once bigdata processing was practically synonymous with MapReduce, you are now seeing frameworks like Spark, Storm, Giraph, and others providing alternatives that allow you to select the approach that is right for the analytic problem.”.
Berkat kemajuan teknologi di perangkat keras komputer-Cpu lebih cepat, memori yang lebih murah,dan MPP arsitektur dan teknologi baru seperti Hadoop, MapReduce, dan di-database dan teks analytics untuk pengolahan data yang besar, sekarang layak untuk mengumpulkan, menganalisis, dan tambang dalam jumlah besar yang terstruktur dan yang tidak terstruktur data untuk wawasan baru.
Thanks to technological advances in computer hardware-faster CPUs, cheaper memory,and MPP architectures-and new technologies such as Hadoop, MapReduce, and in-database and text analytics for processing big data, it is now feasible to collect, analyze, and mine massive amounts of structured and unstructured data for new insights.
Topik spesifik yang dibahas meliputi algoritma MapReduce, pola desain algoritma MapReduce, HDFS, arsitektur cluster Hadoop, BENANG, menghitung frekuensi relatif, pengurutan sekunder, perayapan web, indeks terbalik dan kompresi indeks, algoritma Spark dan Scala.
Specific topics covered include MapReduce algorithms, MapReduce algorithm design patterns, HDFS, Hadoop cluster architecture, YARN, computing relative frequencies, secondary sorting, web crawling, inverted indexes and index compression, Spark algorithms and Scala.
Results: 26, Time: 0.0564

Top dictionary queries

Indonesian - English