Що таке MAPREDUCE Українською - Українська переклад

Приклади вживання Mapreduce Англійська мовою та їх переклад на Українською

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Deep Dive in Mapreduce.
Глибокий занурення в Mapreduce.
Mapreduce with Combiner Map Side.
Mapreduce з комбінатором сторонне приєднання карти.
Pig: Pig is a high-level platform for creating MapReduce programs used with Hadoop.
Pig: це високорівнева платформа для створення програм MapReduce, що використовуються з Hadoop.
MapReduce is divided into 2 steps: map and reduce.
Робота MapReduce складається з двох кроків: Map і Reduce.
The split-apply-combine strategy is similar to the MapReduce framework developed at Google(Dean and Ghemawat 2004; Dean and Ghemawat 2008).
Розкол застосувати стратегію-об'єднати аналогічна рамках MapReduce, розробленої в Google(Dean and Ghemawat 2004; Dean and Ghemawat 2008).
MapReduce consists of two functions- Map and Reduce.
Робота MapReduce складається з двох кроків: Map і Reduce.
Key parts of Google's infrastructure, including Google File System, Bigtable, and MapReduce, use Chubby to synchronize accesses to shared resources.
Основні частини інфраструктури Google, включаючи Google File System, BigTable та MapReduce, використовують Chubby для синхронізації доступу до ресурсів, що розділяються.
MapReduce consists of two distinct tasks- Map and Reduce.
Робота MapReduce складається з двох кроків: Map і Reduce.
To be able to maximally utilize the available mappers and reducers, the ETL job,which is an ordinary Hadoop MapReduce job, needs to know how to shard input data.
Для того, щоб мати можливість максимально використовувати наявні маперы і редюсеры, ETL,який є звичайною задачею Hadoop MapReduce, треба знати, як шардить вхідні дані.
Another way to look at MapReduce is as a 5-step parallel and distributed computation:.
Інший спосіб поглянути на MapReduce- 5-кроків паралельних і розподілених обчислень:.
If Auto Scaling is enabled, then the database will scale automatically.[8] Additionally, administrators can request throughput changes and DynamoDB will spread the data and traffic over a number of servers using solid-state drives, allowing predictable performance.[2]It offers integration with Hadoop via Elastic MapReduce.
Якщо ввімкнено автоматичне масштабування, то база даних буде масштабуватися автоматично.[1] Крім того, адміністратори можуть запитувати зміни пропускної здатності, а DynamoDB поширюватиме дані та трафік на декілька серверів, використовуючи твердотільні накопичувачі, що забезпечує прогнозовану продуктивність.[2]Можлива інтеграція з Hadoop через Elastic MapReduce.
MapReduce achieves reliability by parceling out a number of operations on the set of data to each node in the network.
MapReduce забезпечує надійність за рахунок парцеляції ряду операцій по набору даних для кожного вузла в мережі.
Hadoop consists of the Hadoop Common package,which provides filesystem and OS level abstractions, a MapReduce engine(either MapReduce/MR1 or YARN/MR2)[9] and the Hadoop Distributed File System(HDFS).
Hadoop складається з пакету Hadoop Common,який надає абстракції операційної та файлової системи, рушій MapReduce(або MapReduce/MR1 або YARN/MR2)[20] та Hadoop Distributed File System(HDFS).
The MapReduce System would line up the 1100 Map processors, and would provide each with its corresponding 1 million input records.
Система MapReduce, яка буде вибудовувати 1100 Map-процесорів, і забезпечить кожного відповідним 1 млн. записів.
Configuration overview and important configuration file, Configuration parameters and values, HDFS parameters MapReduce parameters, Hadoop environment setup,‘Include' and‘Exclude' configuration files, Lab: MapReduce Performance Tuning.
Огляд конфігурації та важливий файл конфігурації, параметри та значення параметрів конфігурації, параметри HDFS, Параметри MapReduce, налаштування середовища Hadoop, файли конфігурації«Включити» та«Виключити», Lab: налаштування продуктивності MapReduce.
After that, the MapReduce framework collects all pairs with the same key(k2) from all lists and groups them together, creating one group for each key.
Після цього фреймворк MapReduce збирає всі пари з однаковим ключем(k2) з усіх списків і групує їх разом, створюючи одну групу для кожного ключа.
Bigtable development began in 2004 and is now used by a number of Google applications,such as web indexing, MapReduce, which is often used for generating and modifying data stored in Bigtable, Google Maps, Google Book Search,"My Search History", Google Earth, Blogger. com, Google Code hosting, YouTube, and Gmail.
Розробка Bigtable розпочалась у 2004 році й зараз використовується рядом додатків Google,таких як веб-індексація, MapReduce, яка часто використовується для створення та модифікації даних, що зберігаються в Bigtable, Google Maps, пошуку у Google Книги,«Моя історія пошуку»(англ. My Search History), Google Earth, Blogger. com, хостинг Google Code, YouTube та Gmail.
Though MapReduce Java code is common, any programming language can be used with Hadoop Streaming to implement the map and reduce parts of the user's program.
Хоча в програмах MapReduce звичайним є код на Java, для реалізації«map» та«reduce» частин користувацької програми можна використовувати будь-яку мову програмування завдяки«Hadoop Streaming».
Produce the final output- the MapReduce system collects all the Reduce output, and sorts it by K2 to produce the final outcome.
Вироблення остаточного виходу- до MapReduce система збирає всі вихідні дані функції Reduce(), і сортує її за k2, щоб зробити остаточний результат.
MapReduce tasks must be written as acyclic dataflow programs, i.e. a stateless mapper followed by a stateless reducer, that are executed by a batch job scheduler.
Завдання MapReduce повинні бути написані у вигляді програм ациклічного потоку, тобто без зіставлення з подальшим редуктор без громадянства, які виконуються за допомогою пакетного планувальника завдань.
Data import visualization, MapReduce and Parallel Processing can be best achieved with them, as a result of which the integrated analysis platforms have to be constantly upgraded, which is again made easier by them.
Представлення імпорту інформації, MapReduce та Parallel Processing можна найкраще виконати з ними, оскільки після цього слід постійно змінювати об'єднані етапи дослідження, що знов стає менш вимогливими для них.
The MapReduce System would then line up the 96 Reduce processors by performing shuffling operation of the key/value pairs due to the fact that we need average per age, and provide each with its millions of corresponding input records.
Система MapReduce буде потім вирівнювати 96 Reduce-процесорів шляхом виконання операції перемішування в пари ключ/значення через те, що нам треба дізнатись середній вік, і забезпечити кожного з його мільйонами відповідних вхідних записів.
Information import representation, MapReduce and Parallel Processing can be best accomplished with them, as an aftereffect of which the incorporated investigation stages must be continually redesigned, which is again made less demanding by them.
Представлення імпорту інформації, MapReduce та Parallel Processing можна найкраще виконати з ними, оскільки після цього слід постійно змінювати об'єднані етапи дослідження, що знов стає менш вимогливими для них.
Using MapReduce, the K1 key values could be the integers 1 through 1100, each representing a batch of 1 million records, the K2 key value could be a person's age in years, and this computation could be achieved using the following functions:.
Використовуючи MapReduce, ключові значення k1 можуть бути цілими числами від 1 до 1100, кожен з яких представляє партію на 1 млн. записів, значення ключа k2 може бути віком людини в роках, а такий розрахунок може бути досягнуто з допомогою наступних функцій:.
Specific topics covered include MapReduce algorithms, MapReduce algorithm design patterns, HDFS, Hadoop cluster architecture, YARN, computing relative frequencies, secondary sorting, web crawling, inverted indexes and index compression, Spark algorithms and Scala.
Окремі теми охоплюють алгоритми MapReduce, алгоритм розробки алгоритму MapReduce, HDFS, кластерну архітектуру Hadoop, YARN, обчислювальні відносні частоти, вторинне сортування, сканування в Інтернеті, інвертовані індекси та компресія індексів, Spark алгоритми і Scala.
A MapReduce program is composed of a Map() procedure(method) that performs filtering and sorting(such as sorting students by first name into queues, one queue for each name) and a Reduce() method that performs a summary operation(such as counting the number of students in each queue, yielding name frequencies).
Програма MapReduce складається з процедури Map(), яка виконує функції фільтрації і сортування(наприклад, сортування студентів по імені в черзі, одна черга для кожного імені) і Reduce()(зменшення) метод, який виконує операцію додавання(наприклад, підрахунок кількості студентів в кожній черзі, поступаючись назва частотах).
Prepare the Map() input- the"MapReduce system" designates Map processors, assigns the input key value K1 that each processor would work on, and provides that processor with all the input data associated with that key value.
Підготовка вхідних даних функції Map()- на"в mapreduce система" означає карті процесори, призначає введення значення ключа К1, що кожен процесор буде працювати на, і передбачає, що процесор всі вхідні дані, пов'язані з цим ключове значення.
MapReduce is useful in a wide range of applications, including distributed pattern-based searching, distributed sorting, web link-graph reversal, Singular Value Decomposition,[16] web access log stats, inverted index construction, document clustering, machine learning,[17] and statistical machine translation.
MapReduce корисний в широкому спектрі додатків, в тому числі в розподіленому пошуку на основі шаблонів, розподіленого сортування, веб-посилання, сингулярної декомпозиції,[16] веб-доступу до журналу статистики, інвертованого індексу будівництва, документу кластеризації, машинного навчання,[17] і статистичного машинного перекладу.
Moreover, the MapReduce model has been adapted to several computing environments like multi-core and many-core systems,[18][19][20] desktop grids,[21] volunteer computing environments,[22] dynamic cloud environments,[23] and mobile environments.[24].
Крім того, в MapReduce модель була адаптована для декількох обчислювальних середовищ, таких як Multi-Core і багатоядерних систем[18][19][20] GRID-станцій,[21] волонтерських обчислювальних середовищ[22] динамічних хмарних середовищ,[23] і мобільних середовищ.[24].
Результати: 29, Час: 0.0307

Найпопулярніші словникові запити

Англійська - Українська